摘要 可解释人工智能 (XAI) 是一个新兴的多学科研究领域,旨在开发使 AI 系统更易于解释或解读的方法和工具。XAI 研究人员越来越多地认识到可解释性是一种对环境、受众和目的敏感的现象,而不是一个可以直接测量和优化的单一明确定义的属性。然而,由于目前没有可解释性的总体定义,这给这个多学科领域内的许多不同研究人员带来了沟通不畅的风险。这是我们在本文中试图解决的问题。我们概述了一个称为解释实用主义的框架,我们认为它有两个吸引人的特点。首先,它允许我们在明确的环境、受众和目的相关术语中概念化可解释性,同时保留可解释性的统一底层定义。其次,它使任何可能支撑关于寻求解释目的的可解释性相互冲突的主张的规范性分歧变得显而易见。第三,它使我们能够区分 AI 可解释性的几个维度。我们通过将这个框架应用于一个案例研究来说明这个框架,该案例研究涉及一个机器学习模型,用于预测患有意识障碍的患者是否有可能恢复意识。
摘要 使用机器学习开发的模型在科学研究中越来越普遍。与此同时,这些模型是出了名的不透明。可解释人工智能旨在通过使不透明的模型变得透明来减轻不透明性的影响。然而,可解释人工智能不仅仅是一个问题的解决方案,它还可以在科学探索中发挥宝贵的作用。本文介绍了如何使用可解释人工智能的事后分析技术来细化医学科学中的目标现象,确定未来研究(潜在)因果关系的起点,并为认知科学中的目标现象提供可能的解释。通过这种方式,本文描述了可解释人工智能(超越机器学习本身)如何为数据驱动的科学研究的效率和范围做出贡献。
在过去十年中,可解释人工智能 (XAI) 引起了研究界的极大兴趣,其动机是关键 AI 应用中需要解释。XAI 的一些最新进展基于进化计算 (EC) 技术,例如遗传编程。我们将这种趋势称为 XAI 中的 EC。我们认为 EC 方法的全部潜力尚未在 XAI 中得到充分发挥,并呼吁社区在这一领域做出未来的努力。同样,我们发现 EC 中对基于种群的方法的解释,即它们的搜索过程和结果的关注度日益增加。虽然已经朝这个方向做了一些尝试(尽管在大多数情况下,这些尝试并没有明确地放在 XAI 的背景下),但我们相信仍有几个研究机会和开放的研究问题,原则上可以促进 EC 在现实世界应用中更安全、更广泛地采用。我们将这种趋势称为 EC 中的 XAI。在这篇立场文件中,我们简要概述了上述两种趋势的主要结果,并提出 EC 社区可能在实现 XAI 方面发挥重要作用。
摘要:随着咨询型人工智能 (AI) 代理的适应性和复杂性不断提高,可解释人工智能和以人为中心的人工智能的主题正在紧密联系在一起。解释本身的变化已经得到了广泛的研究,但也有一些相互矛盾的结果。这可能是由于用户的个体差异造成的,而这些差异对解释目标(如信任、理解或工作量)实现的抑制或促进作用很少有人系统地研究过。本文旨在阐明人类维度(性别、年龄、信任倾向、认知需求、技术亲和力、自我效能、态度和心理归因)的重要性及其与不同解释模式(无解释、简单解释或复杂解释)的相互作用。参与者在与基于 AI 的代理互动时玩了 Deal or No Deal 游戏。代理向参与者提供建议,告诉他们是否应该接受或拒绝提供给他们的交易。正如预期的那样,给出解释对解释目标产生了积极的影响。然而,用户的个人特征尤其强化了目标的实现。目标实现的最强预测因素是人类特征的归因程度。归因于人类特征的程度越高,对代理的信任度就越高,建议就越容易被接受和理解,并且在交互过程中满足了重要的需求。因此,当前的工作有助于更好地理解基于人工智能的代理系统的解释设计,该系统考虑到个人特征并满足对可解释和以人为中心的代理系统的需求。
摘要:如今,智慧城市的发展推动了基于人工智能(AI)的创新IT技术的发展,例如智能代理(IA),它们本身使用新算法、复杂软件和先进系统。然而,由于其应用数量和范围不断扩大以及其自主性不断增强,人们越来越期望这些智能技术能够涉及可解释的算法、可靠的软件、可信赖的系统、透明的代理等。因此,在本文中,我们提出了一种新的可解释算法,该算法使用树中的蛇来自动检测和识别对象。所提出的方法涉及蛇(又名参数活动轮廓)的递归计算,从而产生多层蛇,其中第一层对应于感兴趣的主要对象,而下一层蛇描绘出该前景的不同子部分。从这些蛇分割的区域中提取视觉特征并将其映射到语义概念中。基于这些属性,可以推导出决策树,从而对对象进行有效的语义标记,并对场景进行自动注释。在智慧城市的背景下,我们的计算机视觉方法在现实世界的标准数据库上表现出色。
用于自动决策的黑盒人工智能系统通常基于对(大)数据的机器学习,将用户的特征映射到一个类别或分数中,而不揭示原因。这不仅是由于缺乏透明度而成问题,而且还因为算法可能继承了人类的偏见和隐藏在训练数据中的收集伪影,从而导致不公平或错误的决策。人工智能的未来在于让人与机器合作解决复杂问题。与任何有效的合作一样,这需要良好的沟通、信任、清晰度和理解。可解释的人工智能解决了这些挑战,多年来,不同的人工智能社区一直在研究这样的主题,从而产生了不同的定义、评估协议、动机和结果。本讲座对迄今为止可解释人工智能(XAI)的工作进行了合理的介绍,并调查了相关文献,重点是机器学习和符号人工智能相关方法。我们激发现实世界和大规模应用中对 XAI 的需求,同时展示最先进的技术和最佳实践,并讨论许多未解决的挑战。
德国 trenz@uni-goettingen.de 摘要 人工智能 (AI) 越来越多地被纳入创新的个人健康应用程序中,以改善用户的决策。为了促进理解和增加此类基于 AI 的个人健康应用程序的使用,公司正逐步转向可解释的人工智能 (XAI) 设计。然而,我们认为对基于 AI 的建议的解释不仅有积极的后果,也有消极的后果。基于社会技术视角,我们开发了一个模型,将 XAI 与技术压力(包括良性压力和痛苦)及其下游后果联系起来。为了测试我们的模型,我们进行了一项在线实验,参与者与 XAI 或黑盒 AI 进行互动。我们的结果表明 (1) XAI 既会导致良性压力,也会导致痛苦,(2) 同时对客观表现、满意度和使用意愿产生不同的影响。我们的研究结果揭示了 XAI 对健康背景下决策过程的双重影响,为信息系统研究和实践做出了贡献。
摘要 — 将人工智能 (AI) 融入城市规划可以改变资源分配和可持续发展。然而,一些人工智能模型缺乏透明度,引发了对问责制和公众信任的质疑。本文探讨了可解释人工智能 (XAI) 在城市规划中的作用,重点研究其提高透明度和建立利益相关者之间信任的能力。该研究全面研究了实现可解释性的方法,包括基于规则的系统和可解释的机器学习模型。案例研究说明了 XAI 在实际城市规划情况下的有效应用,并强调了透明度在决策流程中的关键作用。本研究探讨了阻碍 XAI 顺利融入城市规划方法的障碍。这些挑战包括道德问题、所用模型的复杂性以及针对特定领域的解释需求。
摘要。当代流程感知信息系统具有记录流程执行过程中产生的活动的能力。为了利用这些特定于流程的细粒度数据,流程挖掘最近已成为一门有前途的研究学科。作为流程挖掘的一个重要分支,预测业务流程管理的目标是生成前瞻性的预测性见解来塑造业务流程。在本研究中,我们提出了一个概念框架,旨在建立和促进对决策环境、底层业务流程和用户特征的理解,以开发可解释的业务流程预测解决方案。因此,关于该框架的理论和实际意义,本研究为深度学习分类器提出了一种新颖的局部事后解释方法,有望帮助领域专家证明模型决策的合理性。与其他流行的基于扰动的局部解释方法相反,本研究使用深度神经网络学习到的中间潜在空间表示从验证数据集中定义局部区域。为了验证所提出的解释方法的适用性,我们使用了沃尔沃 IT 比利时事故管理系统提供的实际流程日志数据。所采用的深度学习分类器取得了良好的性能,ROC 曲线下面积为 0.94。生成的局部解释也被可视化,并提供了相关的评估措施,有望提高用户对黑盒模型的信任度。
摘要 — 人工智能 (AI) 模型的“黑箱”性质一直是其在关键应用中使用时引起许多担忧的根源。可解释人工智能 (XAI) 是一个快速发展的研究领域,旨在创建能够为其决策和行动提供清晰且可解释的解释的机器学习模型。在网络安全领域,XAI 有可能彻底改变我们处理网络和系统安全的方式,使我们能够更好地了解网络威胁的行为并设计更有效的防御措施。在本次调查中,我们回顾了网络安全 XAI 的最新进展,并探讨了为解决这一重要问题而提出的各种方法。审查遵循了网络和数字系统中的网络安全威胁和问题的系统分类。我们在网络安全背景下讨论了当前 XAI 方法的挑战和局限性,并概述了未来研究的有希望的方向。