复杂的机器学习模型有望通过帮助医生根据分子特征选择最佳的抗癌药物组合来彻底改变急性髓系白血病 (AML) 等疾病的治疗。虽然准确的预测很重要,但了解抗癌药物协同作用的潜在分子基础也同样重要。可解释的人工智能 (XAI) 为数据驱动的癌症药理学提供了一种有前途的新途径,将高度准确的模型与可解释的模型决策见解相结合。然而,由于癌症转录组数据具有高度相关性和高维性,我们发现现有的 XAI 方法在应用于大型转录组数据集时并不理想。我们展示了一种基于模型集成的新方法如何帮助提高解释的质量。然后,我们使用我们的方法来证明造血分化特征是各种抗 AML 药物组合协同作用的基础。
架构有可能彻底改变许多人类活动,包括物流、医学和法律 2-4 ;然而,这些系统的负责任和安全地部署取决于它们是否能被人类利益相关者理解。5 针对这一问题提出了两种解决方案:一是设计本质上可解释或透明的系统,这通常会在性能上有所妥协;二是开发定制解决方案来解释一个模糊系统的事后决策。6 在本文中,我们提出了第三种方法,其中可解释性被分析为促进人类理解人工智能 (AI) 系统的问题。因此,我们提出了一种解释人工智能系统的通用方法,通过明确分析提供信息使人类能够理解和预测人工智能的问题。本文的目的是介绍一个统一的框架,从认知科学的角度以可分解组件的角度思考可解释人工智能。我们展示了这个框架如何通过阐明和模块化现有可解释人工智能系统的不同组件为先前的研究提供新的见解。一旦确定,就可以验证这些组件,并讨论这种验证对 XAI 解决方案的普遍性的影响,为 XAI 研究增加了一个新的维度。近年来,有关可解释 AI 的文献激增,7 但仍然缺乏 XAI 技术的连贯理论框架,8 并且现有的分类法是基于解释技术背后的技术基础,而不是其务实目标。这种理论的缺乏阻碍了 XAI 研究,因为它掩盖了哪些经验可以在研究和应用之间安全地转移,以及哪些组件需要在新的环境中重新验证。结果,它既降低了知识积累的速度,也降低了跨部门安全、可解释的 AI 系统的部署速度。此外,大多数 XAI 解决方案往往是由软件工程师为工程师设计的,因此没有考虑如何向非技术用户解释目标系统。 9-12 这是有问题的,因为成功的解释显然取决于用户及其目标,13 如果成功部署了 AI 系统,软件工程师也只是用户的一小部分。可解释的 AI 是一个复杂的问题,既有技术成分,也有心理成分。以结构化和规范的方式阐述 XAI 问题的理论框架可能会揭示以前看似不相关的不同方法和结果之间的关联。这样的框架还将 XAI 问题分解为代表基本组件和依赖关系的抽象,可以单独验证。此外,这种模块化方法将支持部署,因为它允许对解释的哪些子组件可以推广到哪些上下文进行正式测试。我们提出贝叶斯教学作为这样一个框架,它将解释形式化为教师和学习者之间的一种社会行为。在下一节中,我们将解释贝叶斯教学如何将广泛的XAI系统抽象为以下四个组成部分(见表1):(a)目标推理,(b)解释,(c)被解释者模型,(d)解释者模型。具体来说,我们展示了如何应用贝叶斯教学来分解流行的XAI方法类。然后,我们说明如何通过用户研究半独立地验证分解后的部分,并反思贝叶斯教学如何在XAI研究和应用中促进以人为本。最后,我们讨论分解部分的泛化,包括对组件的操作和重组的评论。
可解释人工智能 (XAI) 是机器学习的一个新兴研究课题,旨在揭示 AI 系统的黑箱选择是如何做出的。该研究领域研究决策制定中涉及的措施和模型,并寻求解决方案来明确解释它们。许多机器学习算法无法说明决策的方式和原因。目前使用的最流行的深度神经网络方法尤其如此。因此,这些黑箱模型缺乏可解释性,可能会削弱我们对 AI 系统的信心。XAI 对于深度学习驱动的应用越来越重要,尤其是对于医疗和医疗保健研究,尽管一般来说,这些深度神经网络可以在性能上带来惊人的回报。大多数现有 AI 系统的可解释性和透明度不足可能是成功实施和将 AI 工具集成到常规临床实践中并不常见的主要原因之一。在本研究中,我们首先调查了 XAI 的当前进展,特别是其在医疗保健应用方面的进展。然后,我们介绍了利用多模式和多中心数据融合的 XAI 解决方案,并随后在两个真实临床场景的展示中进行了验证。全面的定量和定性分析可以证明我们提出的 XAI 解决方案的有效性,由此我们可以设想在更广泛的临床问题中成功应用。
摘要。现代基于云的大数据工程方法(如机器学习和区块链)能够从多种不同模态来源(如视频源、传感器数据等)收集学习者数据,从而实现多模态学习分析 (MMLA) 和对学习过程的反思。特别是,跳舞或操作复杂机器等复杂的心理运动技能正从 MMLA 中获益。然而,教师、学习者和其他机构利益相关者可能一方面对应用于学习数据的机器学习过程的可追溯性和透明度存在问题,另一方面对隐私、数据保护和安全性存在问题。我们提出了一种使用机器学习和区块链作为服务来获取、存储、处理和呈现多模态学习分析数据的方法,以实现可解释的人工智能 (AI) 和经过认证的学习数据处理可追溯性。此外,我们通过参与式设计和以社区为导向的 MMLA 流程监控来扩展已建立的开源软件 DevOps 流程,从而促进最终用户参与整个开发周期。MILKI-PSY 云 (MPC) 架构正在扩展现有的 MMLA 方法和基于 Kubernetes 的学习分析基础设施部署自动化,这些自动化来自许多研究项目。MPC 将促进该领域的进一步研究和开发。
通过分层相关性传播增强核电站 AI 模型的可解释性 Seung Geun Kim a*、Seunghyoung Ryu a、Hyeonmin Kim b、Kyungho Jin b、Jaehyun Cho ba 应用人工智能实验室/b 韩国原子能研究院风险评估与管理研究团队,韩国大田儒城区大德大路 989 号街 111,34057 * 通讯作者:sgkim92@kaeri.re.kr 1.简介 随着人工智能 (AI) 技术的快速发展,各个领域的应用数量巨大。核领域也紧跟这一趋势,许多研究利用 AI 模型解决事件诊断和自动/自主操作等问题。然而,占据近期 AI 技术应用最大份额的深度神经网络 (DNN) 具有不透明且可解释性低的局限性。对于基于 DNN 的模型,很难了解模型的内部逻辑或模型如何从给定的输入推断出输出。由于这一限制,尽管基于 DNN 的模型的性能可以接受,但人们对将其实际应用于安全关键领域和与道德/法律问题相关的领域仍犹豫不决。为了克服可解释性低的限制,已经提出了许多可解释的人工智能 (XAI) 方法。XAI 方法可以提供详细的解释,例如模型的内部逻辑和输入与输出之间的关系。然而,尽管可解释性问题对于安全关键的核领域至关重要,但缺乏处理 XAI 的研究。在本研究中,为了提高核领域人工智能模型的可解释性和实用性,研究了分层相关性传播 (LRP) [1],它是 XAI 方法之一,与其他 XAI 方法相比,它在许多应用中表现出更好的性能。论文的其余部分组织如下。在第 2 章中,对 XAI 和 LRP 进行了简要说明。第 3 章描述了可行性检查实验,第 4 章总结了本文。 2. 前言 2.1 可解释人工智能 可解释人工智能 (XAI) 是一种使人类轻松理解 AI 模型的技术。大多数 AI 模型在数据处理和解决问题的方法方面与人类不同。例如,AI 模型识别具有像素 RGB 值的图像,而人类则不能。提出 XAI 是为了减轻理解 AI 模型内部过程或推断某些输出的原因的难度。
人工智能模型的应用越来越广泛,这促使各种利益相关者对解释的需求不断增加。然而,这种需求是模棱两可的,因为有许多类型的“解释”,其评价标准也不同。本着多元化的精神,我绘制了解释类型的分类图,以及可以解决这些问题的相关可解释人工智能方法。当我们试图揭示人工智能模型的内部机制时,我们会开发诊断性解释。当我们试图使模型输出变得易于理解时,我们会生成阐释性解释。当我们希望形成模型的稳定概括时,我们会生成期望性解释。最后,当我们想要证明模型的使用合理时,我们会生成角色解释,将模型置于其社会背景中。这种多元化观点的动机源于将原因视为可操纵的关系,将不同类型的解释视为识别人工智能系统中我们可以干预以影响我们期望的变化的相关点。本文减少了 XAI 领域中使用“解释”一词的歧义,为从业者和利益相关者提供了一个有用的模板,以避免歧义并评估 XAI 方法和推定的解释。
训练图分类器能够区分健康的大脑和功能障碍的大脑,可以帮助识别与特定认知表型相关的子结构。然而,图形分类器的仅预测能力是神经科学家的兴趣,这些神经科学家有很多用于诊断特定精神疾病的工具。重要的是对模型的解释,因为它可以提供新颖的见解和新假设。在本文中,我们提出了反事实图作为对任何黑盒图形分类器进行局部事后解释的一种方法。给定图形和一个黑框,反事实是一个图形,虽然与原始图具有很高的结构相似性,但在其他类别中由黑框分类。我们提出并进行了反对反事实图搜索的几种策略。我们针对具有已知视觉反事实的白盒分类器的实验,表明我们的方法虽然启发式,但可以产生非常接近最佳的方法。最后,我们展示了如何使用反事实图来构建全局解释,从而正确捕获了不同黑盒分类器的行为并为神经科学家提供有趣的见解。
人工智能取得了显著的成功,在某些任务上甚至在医学等复杂领域都比人类专家表现更好。另一方面,人类擅长多模态思维,可以几乎立即将新输入嵌入到由经验塑造的概念知识空间中。在许多领域,目标是建立能够自我解释的系统,参与交互式假设问题。这类问题被称为反事实问题,在可解释人工智能 (xAI) 这一新兴领域中变得越来越重要。我们的核心假设是,使用概念知识作为现实的指导模型将有助于训练更可解释、更稳健、偏差更小的机器学习模型,理想情况下能够从更少的数据中学习。医学领域的一个重要方面是各种模态对一个结果有贡献。我们的主要问题是“如何使用知识库作为开发新解释界面技术的初始连接器来构建多模态特征表示空间(涵盖图像、文本、基因组数据)?”。在本文中,我们主张使用图神经网络作为一种选择方法,实现多模态因果关系的信息融合(因果关系——不要与因果关系混淆——是人类专家对因果关系的解释达到特定理解水平的可衡量程度)。本文旨在激励国际 xAI 社区进一步研究多模态嵌入和跨
摘要。最近出现的可解释人工智能 (XAI) 领域试图以人类可以理解的术语阐明“黑箱”机器学习 (ML) 模型。随着多种解释方法的开发以及黑箱模型的不同应用,需要专家级评估来检查其有效性变得不可避免。这对于敏感领域(例如医疗应用)非常重要,因为专家的评估对于更好地了解复杂 ML 的结果的准确性以及在必要时调试模型至关重要。本研究的目的是通过实验展示如何利用医疗应用中的专家级 XAI 方法评估并将其与临床医生生成的实际解释保持一致。为此,我们从配备眼动仪的专家受试者那里收集注释,同时他们对医学图像进行分类,并设计一种方法将结果与从 XAI 方法获得的结果进行比较。我们通过多个实验证明了我们方法的有效性。
图神经网络能够解决某些药物发现任务,例如分子特性预测和从头分子生成。然而,这些模型被认为是“黑盒子”和“难以调试”。本研究旨在通过将集成梯度可解释人工智能 (XAI) 方法应用于图神经网络模型来提高合理分子设计的建模透明度。模型经过训练可以预测血浆蛋白结合、心脏钾通道抑制、被动通透性和细胞色素 P450 抑制。所提出的方法突出显示了与已知药效团基序一致的分子特征和结构元素,正确识别了特性悬崖,并提供了对非特异性配体-靶标相互作用的见解。开发的 XAI 方法是完全开源的,可供医生使用在其他临床相关终点上训练新模型。
