然而,为智能系统配备解释能力的原因不仅限于用户权利和技术接受度问题。设计人员和开发人员还需要可解释性来增强系统稳健性并进行诊断以防止偏见、不公平和歧视,以及增加所有用户对决策原因和方式的信任。因此,能够解释为什么做出某个决定已成为智能系统的理想属性(Doran、Schulz 和 Besold,2017 年)。解释应帮助用户理解系统模型,以便维护和有效使用它;它们还应协助用户调试模型以防止和纠正错误的结论。此外,解释可以起到教育作用,并有助于人们发现和理解应用领域的新概念。最后,解释与用户的信任和说服有关,它们应该传达一种可操作性,并让用户相信系统的决策对他们来说是最方便的。尽管如此,对于什么是解释,以及一个好的解释包含什么,并没有明确的共识。它的表现形式已在不同的人工智能系统和学科中得到研究。在本文中,我们从传统方法以及目前正在开发的方法的历史角度来研究可解释人工智能 (XAI) 的文献。相关文献非常庞大,本文并非旨在对 XAI 文献进行完整概述。20 世纪 80 年代中期以后,人工智能中可解释性的概念与专家系统中的概念一起逐渐消退(Buchanan & Shortliffe,1984;Wick & Thompson,1992),而机器学习技术的最新成功(Guidotti et al.,2018)又将可解释性概念带回人们的视野,既适用于自主系统(Nunes & Jannach,2017),也适用于人机交互系统(Holzinger,2016;Holzinger,Plass,et al.,2019),还应用于推荐系统(Tintarev & Masthof,2015)以及神经符号学习和推理方法(Garcez et al.,2015)。对于每个观点,读者都可以找到机器学习和深度学习(Arrieta 等人,2020 年;Fernandez、Herrera、Cordon、Jose del Jesus 和 Marcelloni,2019 年;Guidotti 等人,2018 年;Mueller、Hoffman、Clancey、Emrey 和 Klein,2019 年)、推荐系统(Nunes 和 Jannach,2017 年;Tintarev 和 Masthof,2015 年)和神经符号方法(Garcez 等人,2015 年)方面更全面的文献综述。本文的目的是提供概述并讨论如何构想不同的可解释性概念(分别是解释格式),并提供几个示例。本文的主要贡献是:
摘要 — 最近,人工智能和机器学习在从图像处理到自然语言处理等许多任务中都表现出色,尤其是深度学习 (DL) 的出现。随着研究的进展,它们已经侵入许多不同的领域和学科。其中一些领域需要高度的责任感和透明度,例如医疗部门。因此需要对机器决策和预测进行解释以证明其可靠性。这需要更高的可解释性,这通常意味着我们需要了解算法背后的机制。不幸的是,DL 的黑箱性质仍未解决,许多机器决策仍然不太理解。我们回顾了不同研究工作提出的可解释性并对其进行了分类。不同的类别展示了可解释性研究的不同维度,从提供“明显”可解释信息的方法到复杂模式的研究。通过将相同的分类应用于医学研究中的可解释性,希望:1) 临床医生和从业者随后可以谨慎对待这些方法; 2)随着对医疗实践的更多考虑,对可解释性的洞察将随之产生;3)鼓励推动基于数据、数学和技术的医学教育。
在以下工作中,我们使用深度 BrainNet 卷积神经网络 (CNN) 的改进版本,该网络在阿尔茨海默病 (AD) 和轻度认知障碍 (MCI) 患者的扩散加权 MRI (DW-MRI) 纤维束成像连接组上进行训练,以更好地了解该疾病的结构连接组学。我们表明,使用相对简单的连接组 BrainNetCNN 对大脑图像进行分类和可解释的 AI 技术,可以强调与 AD 有关的大脑区域及其连接。结果表明,组间结构差异较大的连接区域也是先前 AD 文献中报道的区域。我们的研究结果支持了对结构连接组进行深度学习是一种强大的工具,可以利用来自扩散 MRI 纤维束成像的连接组内的复杂结构。据我们所知,我们的贡献是第一个应用于退行性疾病结构分析的可解释 AI 工作。关键词:结构连接组、扩散加权 MRI、深度学习、显著图、阿尔茨海默病
近年来,人工智能决策的可解释性问题引起了广泛关注。在考虑人工智能诊断时,我们建议将可解释性解释为“有效的可争议性”。从以患者为中心的角度来看,我们认为患者应该能够对人工智能诊断系统的诊断提出异议,而对人工智能诊断中与患者相关的方面进行有效质疑需要获得不同类型的信息,这些信息包括:1)人工智能系统对数据的使用,2)系统的潜在偏见,3)系统性能,以及 4)系统与医疗专业人员之间的分工。我们论证并定义了“可争议性”所要求的十三个具体信息。我们进一步表明,可争议性不仅比一些提出的可解释性标准要求更弱,而且它不会为人工智能和医疗专业人员的诊断引入毫无根据的双重标准,也不会以牺牲人工智能系统性能为代价。最后,我们简要讨论一下这里介绍的可争议性要求是否是特定于领域的。
需要一个适应人工智能解释工作需求的哲学框架 • 基于解释哲学、因果哲学和科学哲学的前沿文献,阐明一个用于分析人工智能可解释性的哲学框架。• 将通过上述框架审查当代可解释人工智能模型*的代表性范围,以验证它们在多大程度上真正解释、值得信赖以及适合在关键基础设施领域实施。
人口增长和气候变化加速要求使用设计作物理想型(可以在特定环境中生长的理想化植物)进行农业改良。多样化和高技能的研究小组必须整合努力,以弥合实现可持续农业国际目标所需的差距。鉴于全球农业需求的规模以及优化这些努力所需的多种组学数据,可解释的人工智能(具有可解释的决策过程的人工智能,可为人类提供有意义的解释)和百亿亿次计算(每秒可执行 10 18 次浮点运算或百亿亿次浮点运算的计算机)至关重要。准确的表型分析和每日分辨率的气候类型关联对于在不同粒度级别上将理想型生产细化到特定环境同样重要。我们回顾了朝着可持续农业方向的进展克服技术障碍,解决多项联合国可持续发展目标,并讨论克服研究与政策之间差距的愿景。
摘要虽然近年来人工智能研究领域受益于日益复杂的机器学习技术,但由此产生的系统却缺乏透明度和可理解性,尤其是对于最终用户而言。在本文中,我们探讨了将虚拟代理纳入可解释人工智能 (XAI) 设计对最终用户感知信任的影响。为此,我们基于一个简单的语音识别系统进行了关键字分类用户研究。通过这项实验,我们发现虚拟代理的集成可以提高用户对 XAI 系统的信任度。此外,我们发现用户的信任在很大程度上取决于用户代理界面设计中使用的模式。我们的研究结果显示出一种线性趋势,其中代理的视觉存在与语音输出相结合比单独的文本输出或语音输出产生更大的信任度。此外,我们分析了参与者对所呈现的 XAI 可视化的反馈。我们发现,增加虚拟代理的人性化和与虚拟代理的交互是如何改进所提出的 XAI 交互设计的两个最常见的提及点。基于这些结果,我们讨论了当前的局限性以及在 XAI 领域进一步研究的有趣主题。此外,我们为未来的项目提出了 XAI 系统中虚拟代理的设计建议。
2 尤其请参见第 2 节第 9 章“深度学习的局限性”。 3 请注意第 32 届神经信息处理系统会议 (NeurIPS 2018),
基于模拟的训练越来越多地用于评估和训练医学所涉及的心理运动技能。人工智能和机器学习技术的应用为利用大量数据进行教育目的提供了新方法。人工智能在教育中的应用受到的一个重要批评是算法的决策过程缺乏透明度。本研究旨在 1)引入一个使用可解释的人工智能进行基于模拟的外科手术训练的新框架,2)通过创建虚拟手术助手(一个自动化教育反馈平台)来验证该框架。28 名技术熟练的参与者(14 名神经外科医生、4 名研究员、10 名 PGY 4-6 住院医生)和 22 名新手参与者(10 名 PGY 1-3 住院医生、12 名医学生)参加了本研究。参与者使用模拟超声吸引器和双极电极在 NeuroVR 模拟器上执行虚拟现实软脑膜下脑肿瘤切除任务。开发了表现指标,并采用留一交叉验证法在 Matlab 中训练和验证支持向量机。分类器与独特的教育系统相结合,构建了虚拟手术助手,该助手可根据专家熟练程度表现基准自动反馈用户表现指标。虚拟手术助手使用 4 个指标成功地将参与者分为熟练和新手,准确度、特异性和敏感性分别为 92%、82% 和 100%。开发了一个两步反馈系统,为参与者提供他们与专家熟练程度表现基准相关的地位的即时视觉表示。所概述的教育系统为将人工智能和虚拟现实模拟整合到外科教育教学中的潜在作用奠定了基础。将专业知识分类、基于熟练程度基准的客观反馈和教师输入联系起来的潜力通过将这三个组成部分整合到形成性教育范式中来创建一种新颖的教育工具。
由于计算能力的显著进步和优化算法(尤其是机器学习 (ML))的改进,人工智能 (AI) 的自动决策得到了广泛采用。复杂的 ML 模型提供了良好的预测准确性;然而,ML 模型的不透明性并不能为它们在贷款决策自动化中的应用提供足够的保证。本文提出了一个可解释的人工智能决策支持系统,通过信念规则库 (BRB) 实现贷款承保流程的自动化。该系统可以容纳人类知识,也可以通过监督学习从历史数据中学习。BRB 的层次结构可以容纳事实规则和启发式规则。该系统可以通过激活规则的重要性和规则中先行属性的贡献来解释导致贷款申请决策的事件链。抵押贷款承保自动化的商业案例研究表明,BRB 系统可以在准确性和可解释性之间提供良好的权衡。规则激活产生的文本解释可以作为拒绝贷款的理由。申请的决策过程可以通过规则在提供决策中的重要性及其先行属性的贡献来理解。
