6 Tom Boellstorff,《从理论上制作大数据》(2013 年)18(10) First Monday。7 David Silver 和 Demis Hassabis,《AlphaGo:利用机器学习掌握古老的围棋游戏》[2016](2021 年 6 月 23 日访问)。8 Robert Prey,《Nothing Personal:音乐流媒体平台上的算法个性化》(2018 年)40(7) Media, Culture & Society 1087。9 Kristian Hammond,《人工智能入门指南》(Wiley 2015 年)。10 Frank Pasquale,《黑箱社会。控制金钱和信息的秘密算法》(哈佛大学出版社 2015 年)。11 Andreas Holzinger 等人,《人工智能在医学中的因果性和可解释性》(2019 年)9(4) WIREs 数据挖掘和知识
在技术文献中可以找到大量关于 ACAES 的理论和模拟研究的例子,预测的往返通常在 50 — 75 % 的范围内,即 8,2 。在这些研究中,系统的各个子组件(即压缩机、热交换器、涡轮机)通常基于“黑箱”热力学模型,从给定数量的输入生成性能指标,而不考虑内部组件的细节。虽然这种方法对于概念研究和描述一般操作原理很有用,但它忽略了重要的设备技术限制和/或设计挑战。这可能导致对操作条件和性能指标的预测不切实际。也有论文指定了动态组件性能 9 ,但这些论文仍然基于通用模型,而不是特定的定制设计组件。在最近的一篇论文 1 中,我们推导出等容 ACAES 系统的理想性能极限,提供
詹娜·伯雷尔 (Jenna Burrell) 教授指出了三类不透明性,这些不透明性使得算法对用户来说可能难以理解,有时对设计者来说也是如此。12 虽然并非所有算法都是“黑箱”系统,但更先进的算法依赖于深度学习或 ML 技术,这些技术旨在处理大量输入数据和相关结果(即“学习集”)来“训练”机器识别模式,最终生成自己的实现期望结果的途径。这些系统是不透明的,因为它们处理大量数据并推断数据点之间的关系,而这种关系超出了人类在类似时间限制内可以合理计算的能力。算法的准确性和预测能力与其复杂性成正比。此类系统自动化程度最高,但截至本文发表时,业界使用的可能性最小。
在使用机器学习模型分析高维神经影像数据时,必须意识到黑箱问题。这是由于缺乏对内部算法或输入特征的理解,尽管大多数模型在分类、模式识别和预测方面表现出色,但大多数模型仍基于这些输入特征做出决策。在这里,我们通过选择和解释最相关的输入特征来解决基于功能连接对认知大脑状态进行分类的根本高维问题。具体来说,我们考虑了长期认知负荷下皮质同步的变化。我们的研究强调了这种机器学习方法在构建稳健的分类模型和感知相关的刺激前连接变化方面相对于传统的试验平均统计分析的进步。
人工智能有望塑造和改变临床实践和公共卫生。1 与此同时,人工智能应用引发了人们对它们在多大程度上依赖看似不透明的黑箱技术、减少人类评估和干预的机会以及自动化可能产生重大后果的情况、决策和分配的反思。医生对不透明算法的潜在依赖 2 — 这可能会增加而不是减少临床医生的工作量,甚至使医生成为实际上做出治疗决策的“人工智能的奴仆” 3 — 可能会影响患者的态度。鉴于这些挑战,值得信赖的人工智能的理想在许多有关人工智能道德使用的报告、声明和指南中占有突出地位。4 例如,在欧盟委员会任命的人工智能高级专家组 2019 年的指南中,5 值得信赖的人工智能是其他原则和要求所围绕的目标概念。
摘要:人工智能 (AI) 的最新进展导致了其在工业领域的广泛应用,机器学习系统在大量任务中表现出超越人类的性能。然而,这种性能的激增通常是通过增加模型复杂性来实现的,将这些系统变成“黑箱”方法,并导致它们的运行方式以及最终它们做出决策的方式存在不确定性。这种模糊性使机器学习系统难以在敏感而关键的领域采用,而这些领域的价值可能巨大,例如医疗保健。因此,近年来,人们对可解释人工智能 (XAI) 领域的科学兴趣重新燃起,该领域涉及开发解释和解释机器学习模型的新方法。本研究重点关注机器学习可解释性方法;更具体地说,我们介绍了这些方法的文献综述和分类,以及它们的编程实现的链接,希望这项调查可以为理论家和实践者提供参考。
人工智能 (AI) 正在迅速成为我们日常生活的一部分,影响着我们与技术和周围世界的互动方式。人工智能最重要的用途之一是发明。专利制度的一个基本目标是公开技术,以便随着时间的推移,公共领域可以得到丰富,人类技术的系统记录可供使用和获取。同时,由于人工智能的突破,专利制度在公开充分性方面面临着巨大挑战。为了复制,有必要公开和解释人工智能及其生成的结果。然而,尽管我们的日常生活取得了突破,但使用基于人工智能的发明的一个关键障碍是,由于它们的黑箱性质,它们往往缺乏清晰度。同时,一些人工智能发明或人工智能技术可能需要额外的特定数据集才能公开。这里的主要问题是,专利申请中必须披露哪些信息,以便发明人获得垄断权,公众可以从发明中受益?
摘要 尽管在可解释人工智能技术中注入领域知识是增强“黑箱”模型决策可解释性的可行方法,但仍存在一些未解决的挑战。其中一些挑战包括可解释性的量化、性能妥协和信息牺牲。在我们之前的工作中,我们证明了在网络入侵检测中注入领域知识可以提供更好的决策可解释性、更好的泛化以更好地处理未知攻击以及更快的决策或响应。在本文中,我们扩展了我们之前的工作,以量化引入泛化的信息牺牲水平,并量化应用于网络入侵检测问题的可解释人工智能技术的可解释水平。我们的实验结果表明,由于注入了领域知识,牺牲的信息水平可以忽略不计,并且使用最近提出的代理方法获得的可解释性分数比不使用领域知识的情况要好。
摘要 — 人工智能 (AI) 模型的“黑箱”性质一直是其在关键应用中使用时引起许多担忧的根源。可解释人工智能 (XAI) 是一个快速发展的研究领域,旨在创建能够为其决策和行动提供清晰且可解释的解释的机器学习模型。在网络安全领域,XAI 有可能彻底改变我们处理网络和系统安全的方式,使我们能够更好地了解网络威胁的行为并设计更有效的防御措施。在本次调查中,我们回顾了网络安全 XAI 的最新进展,并探讨了为解决这一重要问题而提出的各种方法。审查遵循了网络和数字系统中的网络安全威胁和问题的系统分类。我们在网络安全背景下讨论了当前 XAI 方法的挑战和局限性,并概述了未来研究的有希望的方向。