奥卢应用科学大学信息与通信技术、软件开发 姓名:Seila Laakso 标题:人工神经网络和深度学习及其在未来应用开发中的可能性和局限性 指导老师:Jukka Jauhiainen 学期和完成年份:2022 年秋季 页数:39 本论文以研究文章的形式讨论了人工神经网络的历史、结构和用途。论文的开头对人工智能进行了一般性的讨论:例如它的不同层次和历史。本节还提供了有关智能(尤其是人工智能)的定义的信息。论文的第三部分讨论了人工神经网络。本节详细介绍了神经网络的结构并讨论了其运行原理。本节还讨论了神经网络学习的不同方式,并回顾了与人工神经网络技术相关的最常见术语。最后部分讨论了人工神经网络的特性。它的局限性以及其使用的好处和可能性。本节还介绍了人工神经网络在各个工业领域应用的实际案例。论文使用了大量各个领域的研究材料,并参考了几本研究人工智能的大量教科书。所用材料包括印刷文献和在线材料。论文的结论是:在不久的将来,神经网络技术的发展正在加速,新的创新不断涌现。技术中需要开发的问题包括其不可预测性和黑箱式的运行原理,这使得诊断和修复潜在问题变得困难。论文附有一个名为ProGAN DaliA的人工智能项目的最终报告。该项目是作为这篇毕业论文的一部分进行的。 ProGAN DaliA 是一个渐进式生成对抗神经网络,可以根据给定的图像数据创建新的艺术作品。关键词:神经网络、深度学习、人工智能、图像识别、AI、感知器
材料建模的人工神经网络(ANN)获得了显着的兴趣。我们报告了基于Boltzmann机器(BM)体系结构对ANSATZ的ANSATZ的ANSATZ的改编,用于量子化学计算[Yang等,J。Chem。理论计算。,2020,16,3513–3529]。在这里,这项研究将其扩展的形式主义提出了量子算法,该算法可以通过量子门制备NQ。ANN模型的描述符被选为电子配置的占领,是用量子机械代表的。我们的算法可能具有与先前研究中使用的基于经典抽样的组合相比的潜在优势。可以使用量子本机程序准确地形成NQ。仍然,在能量最小化方面对模型的训练有效地在经典计算机上进行。因此,我们的方法是一类变异的量子本素。BM模型与Gibbs的分布有关,我们的准备程序利用了量子相估计的技术,但没有哈密顿的进化。通过在量子计算机模拟器上实现该算法来评估所提出的算法。显示了理论的完整空间配置相互作用水平的说明性分子计算,并确定了与我们先前经典方法的准确性的一致性。
本文提出了一个深度学习模型,挑战了公司破产这一金融领域的已知知识。具体来说,我们构建了一个用于预测公司破产的多层感知器 (MLP) 模型,并对其进行了分析,以直观地显示哪些输入参数对模型的准确性最重要。该模型使用大约 55,000 行数据、数据清理和超参数优化,在 120 个时期和 30 次试验后实现了 82.8% 的平均准确率和 0.0678% 的标准差,这是一个出色的结果。该模型优于两个进行比较的支持向量机 (SVM) 模型,并表现出良好的泛化能力。然而,非线性 SVM 模型产生了 20.48% 的假阳性,准确率为 71.96%,而 MLP 模型产生了 25.1% 的假阳性。因此,如果减少假阳性的数量更重要,那么尽管准确率较低,但 SVM 模型可能是更可取的。分析输入参数后发现,员工人数、离职组和股权比例是对破产预测影响最大的输入参数。由此得出结论,这些参数可能是分析一家公司是否会破产时最重要的因素。
摘要 — 大自然一直启发着人类精神,科学家经常根据对大自然的观察开发新方法。成像和传感技术的最新进展使人们对生物神经过程有了更深入的了解。为了找到增强神经网络学习能力的新策略,我们专注于一种与生物神经网络中的学习任务和神经稳定性密切相关的现象,即稳态可塑性。在描述稳态可塑性的理论中,突触缩放被发现是最成熟和最适用的。我们系统地讨论了关于突触缩放理论的先前研究及其如何应用于人工神经网络。因此,我们利用信息论来分析评估突触缩放如何影响互信息。基于这些分析结果,我们提出了两种在简单和复杂、前馈和循环神经网络的训练过程中应用突触缩放的方式。我们在标准基准上将我们的方法与最先进的正则化技术进行了比较。我们发现,在广泛的网络前馈和循环拓扑和数据集上的实验中,与之前的正则化方法相比,所提出的方法在回归和分类任务中产生的误差最低。
近年来,随着数据处理技术的飞速发展和风险投资的涌入,人工智能(AI)在自动化任务方面展现出其优势,并开始深刻影响社会的各个方面,包括学术、工业和公共生活。2011年,IBM 的著名问答计算机系统 Watson 在美国热门智力竞赛节目《危险边缘》中击败了两位最成功的人类选手,引发了人们对“机器的潜在思维能力”的讨论。2016年,世界围棋冠军李世石被谷歌的围棋程序 AlphaGo 击败(1:4)后,“人工智能(AI)”、“机器学习(ML)”和“人工神经网络(ANN)”等术语再次引起媒体和公众的关注。一年后,下一代程序 AlphaGo Master 在比赛中以 3:0 击败了世界排名第一的人类选手柯洁,开启了人工智能主导竞技游戏的新时代。本文将首先介绍人工智能的定义、应用和广泛使用的方法,以便对人工智能有一个全面而直观的认识。 随后,探讨人类大脑神经元如何为人工神经网络的起源带来启发。 然后,对相关关键技术,包括框架、模型训练和优化,进行总体介绍和总结。
人工神经网络(ANN)如今被广泛应用,对其性能提升的研究也在持续进行。ANN 的一个主要目标是具有较高的泛化性能,这可以通过验证来估计。集成有助于提高泛化性能,但如果训练数据集的大小有限,集成的验证通常在计算上成本很高。因此,本论文在交叉验证过程中引入了快捷集成,其中对多个验证输出取平均值以估计集成的泛化性能。为了评估该方法,使用两个不同的分类问题数据集,将快捷集成的验证性能与单个模型和实际集成的验证和测试性能进行了比较。结果表明,在验证过程中,快捷集成比单个模型能更好地估计集成的泛化性能,并且可以近似实际集成的验证性能。因此,快捷集成可以在交叉验证期间提供一种成本较低的集成验证方法。
基于机器学习 (ML) 的模型得出的关于大脑功能的计算显式假设最近彻底改变了神经科学 1、2。尽管这些人工神经网络 (ANN) 具有前所未有的能力来捕捉生物神经网络 (大脑) 中的反应 (图 1A;参见 3 进行全面评论),并且我们可以完全访问所有内部模型组件 (与大脑不同),但 ANN 通常被称为可解释性有限的“黑匣子”。然而,可解释性是一个多方面的构造,在不同领域有不同的使用方式。特别是,人工智能 (AI) 中的可解释性或可解释性工作侧重于理解不同模型组件如何影响其输出 (即决策)。相比之下,ANN 的神经科学可解释性需要模型组件和神经科学构造 (例如,不同的大脑区域或现象,如复发 4 或自上而下的反馈 5 ) 之间的明确一致性。鉴于人们普遍呼吁提高人工智能系统的可解释性 6 ,我们在此强调了这些不同的可解释性概念,并认为 ANN 的神经科学可解释性可以与人工智能的持续努力并行但独立地进行。某些 ML 技术(例如,深度梦境,见图 1C)可以在这两个领域中得到利用,以探究哪种刺激可以最佳地激活特定模型特征(通过优化实现特征可视化),或者不同特征如何影响模型的输出(特征归因)。然而,如果没有适当的大脑对齐,某些特征(图 1C 中模型的非蓝色部分)对于神经科学家来说仍然是无法解释的。
用于材料建模的人工神经网络 (ANN) 引起了广泛关注。我们最近报告了一种基于玻尔兹曼机 (BM) 架构的 ANN 改编版,该改编版适用于多配置多电子波函数的拟定,称为神经网络量子态 (NQS),用于量子化学计算。本文,本研究将其扩展形式化为一种量子算法,该算法能够通过量子门准备 NQS。ANN 模型的描述符被选为电子配置的占用,以量子力学方式由量子位表示。因此,我们的算法可能比以前研究中使用的基于经典采样的计算具有潜在优势。NQS 可以通过量子原生程序准确形成,但模型在能量最小化方面的训练是在经典计算机上进行的;因此,我们的方法是一类变分量子特征求解器。 BM 模型与 Gibbs 分布相关,我们的准备程序利用了量子相位估计技术,但没有哈密顿演化。通过在量子计算机模拟器上实现该算法来评估该算法。显示了在完全活性空间配置相互作用理论水平上的说明性分子计算,证实了与我们之前的经典方法的准确性一致。
1.人工神经网络 (ANN) 简介 2.神经网络中的学习、实施过程、预测和与实际结果的比较以及从数据库中提取知识。3.合金成分对钛合金 β 转变温度影响的建模。4.具有不同微观结构的 Ti-6Al-4V α-β 合金的热变形行为。5.中碳钢中成分-热处理-力学性能关系的建模。6.钢中马氏体开始温度的成分依赖性估计 7.通过人工神经网络模型分析 Inconel 高温合金在电火花加工过程中的可加工性 8.预测静电纺丝工艺参数与纳米纤维直径之间的关系 9.建模金属基复合材料的物理和机械性能 10.人工神经网络的预期未来、可用于建模的资源和开放数据源
摘要:定向能量沉积工艺的应用范围很广,包括现有结构的修复、涂层或改造以及单个零件的增材制造。由于该工艺经常应用于航空航天工业,因此对质量保证的要求极高。因此,越来越多的传感器系统被用于过程监控。为了评估生成的数据,必须开发合适的方法。在这种情况下,一个解决方案是应用人工神经网络 (ANN)。本文演示了如何将测量数据用作 ANN 的输入数据。测量数据是使用高温计、发射光谱仪、照相机 (电荷耦合器件) 和激光扫描仪生成的。首先,提出了从动态测量数据系列中提取相关特征的概念。然后应用开发的方法生成数据集,用于预测各种几何形状的质量,包括焊缝、涂层和立方体。将结果与使用激光功率、扫描速度和粉末质量流量等工艺参数训练的 ANN 进行了比较。结果表明,使用测量数据可以带来额外的价值。使用测量数据训练的神经网络可以实现更高的预测精度,特别是对于更复杂的几何形状。