(人工)神经网络在力学和材料科学领域越来越受欢迎,它利用模型降阶技术加速计算,并作为各种材料的通用模型。然而,神经网络的主要缺点仍然存在:它们的众多参数难以解释和解释。因此,神经网络通常被称为黑匣子,其结果往往难以人类解释。物理信息神经网络这一新兴的活跃领域试图通过基于机械知识设计深度神经网络来减轻这一缺点。通过利用这种先验知识,更深层、更复杂的神经网络变得可行,因为机械假设可以得到解释。然而,神经网络参数的内部推理和解释仍然是个谜。作为物理信息方法的补充,我们提出了迈向物理解释方法的第一步,该方法对在机械数据上训练的神经网络进行后验解释。这种概念验证可解释的人工智能方法旨在阐明神经网络的黑匣子及其高维表示。其中,主成分分析将 RNN 单元状态中的分布式表示去相关,并允许与已知和基本函数进行比较。这种新方法由系统超参数搜索策略支持,该策略可识别最佳神经网络架构和训练参数。三个关于基本本构模型(超弹性、弹塑性和粘弹性)的案例研究的结果表明,所提出的策略可以帮助识别数值和分析闭式解来表征新材料。
摘要 在数字时代,我们目睹了人工智能(AI)在解决问题的同时,也提高了生产力和效率。然而,将权力委托给基于算法的系统不可避免地会产生成本,其中一些系统的工作原理不透明且不可观察,因此被称为“黑匣子”。理解“黑匣子”的关键是承认算法并没有虚假地执行此操作;它只是使用可扩展的可计算机器学习算法所提供的重组。但是,具有任意精度的算法可以轻松重建这些特征并做出改变生活的决策,特别是在金融服务领域(信用评分、风险评估等)。),如果以反映社会价值观的公平方式进行重建,则可能很难。如果我们允许人工智能做出改变生活的决定,那么机会成本、数据权衡以及对社会、经济、技术、法律和环境系统的影响是什么?我们发现存在 160 多项道德人工智能原则,倡导组织采取负责任的行动,避免造成数字社会危害。这种指导的漩涡,没有一个是强制性的,只会造成混淆,而不是指导。我们需要仔细思考如何在缺乏人工监督和人工智能治理的情况下实施这些算法、决策委托和数据使用。本文旨在协调和统一方法,说明人工智能的机遇和威胁,同时提高人们对企业数字责任 (CDR) 的认识,将其作为一种潜在的协作机制,以揭开治理复杂性的神秘面纱并建立公平的数字社会。
与传统的研发过程相比,AI技术可以在设定的时间范围内测试和分析大量的药物,而与传统的研发工艺相比,这种方式可能更加专注,更聪明。这是我们看到制药公司和技术公司之间越来越多的合作的领域,有趣的是,这些具有不同文化的行业将如何共同运作。在寻求访问AI平台进行药物发现时,制药公司的主要关注点之一是该平台的内部运作通常是“黑匣子”。
应用深度学习 AI 的力量 Eightfold 的深度学习 AI 使用神经网络提供实时人才情报,随着时间的推移,情报的准确性会越来越高。由此产生的见解和建议比触发逻辑或简单的关键字匹配产生的见解和建议更具相关性和针对性。尽管算法非常复杂,但 Eightfold 并不将 AI 视为黑匣子。相反,该平台遵循可解释 AI 的原则。例如,在将人员与工作进行匹配时,Eightfold 会显示哪些因素使某人适合该职位。这种可见性建立了人们对平台建议的信任。
未分析该数据集的人口统计学、糖尿病持续时间、种族、使用每个成像平台进行成像所需的时间以及瞳孔直径。EyeArt 和 EIDON 图像处理可能存在“黑匣子”问题(即输出计算方式缺乏透明度),因为该软件使用的参考参数或数据点可能与标准 45 度彩色眼底图像中使用的不同,因此分级可能存在差异。需要进一步研究以确定广角真彩色图像是否在 EyeArt 软件的诊断准确性方面具有优势。
信用风险评估已成为现代金融领域关于明智贷款决策的主要关注点之一。尽管一些研究使用了传统的逻辑回归和线性判别分析技术,但在当今复杂且数据丰富的环境中,这些技术已越来越不适用。此类模型通常难以处理大型数据集和非线性关系,从而降低了其预测能力和适应性。人工智能 (AI) 和机器学习 (ML) 为信用风险建模提供了两种最具创新性的方法。本文回顾了一些用于提高信用风险评估准确性和效率的 ML 模型,从随机森林和支持向量机到神经网络。与更传统的模型相比,人工智能模型可以通过使用大量结构化和非结构化信息(包括社交媒体活动和交易历史等替代信息源)来提高预测准确性。然而,尽管具有明显的优势,但在信用风险评估中使用人工智能仍面临一些挑战,包括模型不透明、偏见和法规遵从性。这种“黑匣子”的性质,尤其是对于深度学习算法而言,会限制其可解释性,并使监管合规性和决策合理化变得复杂。为了解决这种“黑匣子”性质引起的问题,已经实施了可解释的人工智能技术,即 Shapley 值和 LIME,以提高模型的透明度,并提高利益相关者对决策支持系统的信任。本评论旨在评估人工智能和机器学习在信用风险评估中的当前应用,权衡各种模型的优势和局限性,并讨论信贷机构采用这些模型时所涉及的道德考虑和监管挑战。
深度神经网络 (DNN) 特征与皮质反应之间的一致性目前为更高级的视觉区域提供了最准确的定量解释 [1、2、3、4]。与此同时,这些模型特征也被批评为无法解释的解释,将一个黑匣子(人脑)换成了另一个黑匣子(神经网络)。在本文中,我们从头开始训练网络,让其直接从大量自然场景数据集中预测大脑对图像的反应 [5]。然后,我们采用“网络解剖” [6],这种方法通过识别和定位图像中已训练网络各个单元的最显著特征来增强神经网络的可解释性,并已用于研究人脑的类别选择性 [7]。我们采用这种方法创建了一个假设中性模型,然后使用该模型探索类别选择性之外的特定视觉区域的调节特性,我们称之为“大脑解剖”。我们使用大脑解剖来检查一系列生态上重要的中间特性,包括深度、表面法线、曲率和物体关系,并发现顶叶、侧部和腹侧视觉流子区域之间存在一致的特征选择性差异。例如,在三个场景选择网络中,我们发现 RSC 更喜欢远深度和平面水平表面法线,而 OPA 和 PPA 更喜欢近深度和中深度以及垂直表面法线,这表明在 RSC 和 OPA/PPA 中用于场景表示的空间坐标系发生了变化。这些发现有助于更深入、更细致地了解人类视觉皮层在观看自然场景时的功能特征。项目网站:https://brain-dissection.github.io/ 。
在日益数字化的社会中,指数级数据的产生以及人工智能(AI)多种应用的发展使这些信息的利用成为可能,这无疑构成了经济的新局面。作为商会于 2022 年 11 月出版的专门讨论该主题的第 27 期新闻与趋势出版物的延续,您将在本版本的文件中找到对此趋势的分析以及对这些技术所取得收益的估计这正在彻底改变几乎所有活动领域的工作组织。一些证词或见解为风险提供了现实的对照,这些风险也与这些技术的发展有关,有时被指控为黑匣子。
在过去的几年中,深度神经网络(DNN)从根本上改变了人们对机器学习和处理实际问题的看法。DNN的成功范围从传统的AI领域,例如计算机视觉,自然语言处理,互动游戏,医疗保健和物理科学,到理论和应用领域的每个角落。另一方面,DNN仍然在很大程度上充当黑匣子,我们对它们何时以及为什么工作的理解只有非常有限的理解。本课程介绍了DNN,样本重要应用的基本成分,并围绕开放问题。重点是从第一原则和基本构建基础进行思考,因为该领域仍在迅速发展,没有什么不能改变的。
