通过分层相关性传播增强核电站 AI 模型的可解释性 Seung Geun Kim a*、Seunghyoung Ryu a、Hyeonmin Kim b、Kyungho Jin b、Jaehyun Cho ba 应用人工智能实验室/b 韩国原子能研究院风险评估与管理研究团队,韩国大田儒城区大德大路 989 号街 111,34057 * 通讯作者:sgkim92@kaeri.re.kr 1.简介 随着人工智能 (AI) 技术的快速发展,各个领域的应用数量巨大。核领域也紧跟这一趋势,许多研究利用 AI 模型解决事件诊断和自动/自主操作等问题。然而,占据近期 AI 技术应用最大份额的深度神经网络 (DNN) 具有不透明且可解释性低的局限性。对于基于 DNN 的模型,很难了解模型的内部逻辑或模型如何从给定的输入推断出输出。由于这一限制,尽管基于 DNN 的模型的性能可以接受,但人们对将其实际应用于安全关键领域和与道德/法律问题相关的领域仍犹豫不决。为了克服可解释性低的限制,已经提出了许多可解释的人工智能 (XAI) 方法。XAI 方法可以提供详细的解释,例如模型的内部逻辑和输入与输出之间的关系。然而,尽管可解释性问题对于安全关键的核领域至关重要,但缺乏处理 XAI 的研究。在本研究中,为了提高核领域人工智能模型的可解释性和实用性,研究了分层相关性传播 (LRP) [1],它是 XAI 方法之一,与其他 XAI 方法相比,它在许多应用中表现出更好的性能。论文的其余部分组织如下。在第 2 章中,对 XAI 和 LRP 进行了简要说明。第 3 章描述了可行性检查实验,第 4 章总结了本文。 2. 前言 2.1 可解释人工智能 可解释人工智能 (XAI) 是一种使人类轻松理解 AI 模型的技术。大多数 AI 模型在数据处理和解决问题的方法方面与人类不同。例如,AI 模型识别具有像素 RGB 值的图像,而人类则不能。提出 XAI 是为了减轻理解 AI 模型内部过程或推断某些输出的原因的难度。
摘要背景:人工智能有可能彻底改变医疗保健,它越来越多地被用于支持和协助医疗诊断。人工智能的一个潜在应用是作为患者的第一个接触点,在将患者送往专家之前取代初步诊断,使医疗保健专业人员能够专注于治疗中更具挑战性和关键性的方面。但是,要使人工智能系统成功扮演这一角色,仅提供准确的诊断和预测是不够的。此外,它还需要提供(向医生和患者)关于诊断原因的解释。如果没有这一点,准确和正确的诊断和治疗可能会被忽略或拒绝。方法:评估这些解释的有效性并了解不同类型解释的相对有效性非常重要。在本文中,我们通过两个模拟实验来研究这个问题。对于第一个实验,我们测试了重新诊断场景,以了解局部和全局解释的效果。在第二个模拟实验中,我们在类似的诊断场景中实施了不同形式的解释。结果:结果表明,解释有助于提高关键重新诊断期间的满意度指标,但在重新诊断之前(进行初步治疗时)或之后(当替代诊断成功解决病例时)几乎没有影响。此外,关于该过程的初始“全局”解释对即时满意度没有影响,但改善了对人工智能理解的后期判断。第二个实验的结果表明,与没有解释或仅基于文本的原理相比,结合视觉和基于示例的解释与原理相结合对患者满意度和信任的影响明显更好。与实验 1 一样,这些解释主要影响重新诊断危机期间的即时满意度指标,在重新诊断之前或成功解决诊断后几乎没有优势。结论:这两项研究帮助我们得出关于面向患者的解释性诊断系统如何成功或失败的几个结论。基于这些研究和文献综述,我们将为医疗领域的 AI 系统提供的解释提供一些设计建议。
摘要自由能原理如何有助于对意识的神经相关性进行研究,以及对意识的科学研究?在自由能原理下,应根据神经动力学而不是神经状态定义神经相关性,并应通过对意识的计算相关性的研究来构成 - 根据神经状态编码的概率定义。我们认为,这些限制通过解决了两个核心问题,从而使对意识的计算解释的前景更加明亮。首先是在没有感觉刺激和行为的情况下考虑意识。第二个是允许实现与意识相关的计算的系统,而无需意识,从而区分了仅模拟有意识和自身意识的计算系统的计算系统之间的区分。鉴于自由能原理所带来的计算概念,我们在有争议的情况下(例如,在没有感觉刺激和行为)的情况下,我们对意识的归属产生了限制。我们表明,这也对它的含义也有影响,而不是仅仅模拟有意识的系统。
心理状态和大脑状态之间的关系在计算神经科学和精神病学中非常重要,在精神病学中,通过药物干预大脑状态来改变心理状态。大脑和心灵之间的关系困扰了哲学家们几个世纪。这里提出了一种神经科学方法,其中亚神经元、神经元和神经元网络层面的事件同时发生,以执行可以在高层次上描述为心理状态的计算,其中包含有关世界的内容。有人认为,由于不同解释层次的过程同时发生,因此它们通过非因果的附带关系联系在一起:因果关系在脑中最好被描述为在层次内而不是层次之间运行。这使得附带(例如,心理)属性得以涌现,尽管一旦在机械层面上理解它们可能看起来不那么突现,而且是意料之中的。这种心脑理论允许心理事件在种类上不同于其背后的机械事件;但这并不意味着心理事件会导致大脑事件,反之亦然:它们是对计算系统运行的不同层次的解释。这种方法可能提供一种不同于二元论和还原物理主义的思考大脑和思维的方式,它植根于理解大脑和心理事件的基础计算过程,这意味着心理和机械层面通过正在执行的计算过程相互联系。不同操作层次的解释可能有不同的用途。例如,如果我们想了解大脑是如何进行算术运算的,那么在心理层面上描述正在计算的算法就会很有用。但如果大脑的运作导致精神障碍,那么理解神经处理层面的机制可能更有用,例如,在治疗精神障碍方面。
自深度学习革命以来,人工智能取得了长足进步,但人工智能系统仍然难以在其训练数据之外进行推断并适应新情况。为了获得灵感,我们将目光投向了科学领域,科学家们已经能够开发出表现出非凡推断能力的理论,有时甚至可以预测从未观察到的现象的存在。根据 David Deutsch 的说法,这种被他称为“延伸”的推断是由于科学理论难以改变。在本文中,我们研究了 Deutsch 的难以改变原则以及它与深度学习中更形式化的原则(如偏差-方差权衡和奥卡姆剃刀)的关系。我们区分了内部可变性(模型/理论在内部可以改变多少同时仍能产生相同的预测)和外部可变性(模型必须改变多少才能准确预测新的、超出分布的数据)。我们讨论了如何使用罗生门集的大小来测量内部变异性,以及如何使用柯尔莫哥洛夫复杂度来测量外部变异性。我们通过观察人脑来探索难以改变的解释在智力中扮演的角色,并区分大脑中的两个学习系统。第一个系统的运作方式类似于深度学习,可能构成了大多数感知和运动控制的基础,而第二个系统是一个更具创造性的系统,能够生成难以改变的世界解释。我们认为,弄清楚如何复制这个能够生成难以改变的解释的第二个系统是实现通用人工智能所需要解决的关键挑战。我们与波普尔认识论的框架取得了联系,该框架拒绝归纳,并断言知识产生是一个通过猜想和反驳进行的进化过程。
本文提出了一种使用结构因果模型的对比解释模型。近年来,随着研究人员和从业人员致力于增进对智能决策的信任和理解,人工智能中的因果解释主题引起了人们的广泛关注。虽然人工智能的不同子领域都以特定于子领域的视角研究了这个问题,但是很少有模型旨在更普遍地捕捉解释。一个通用模型基于结构因果模型。它将解释定义为一种事实,如果被发现为真,则将构成特定事件的实际原因。然而,哲学和社会科学的研究表明,解释是对比的:也就是说,当人们要求对某个事件进行解释时——事实——他们(有时是隐含地)要求相对于某些对比情况的解释;也就是说,“为什么是 P 而不是 Q ?”。本文扩展了结构因果模型方法,定义了两个互补的对比解释概念,并在人工智能中的两个经典问题:分类和规划上进行了演示。我们相信该模型可以帮助人工智能子领域的研究人员更好地理解对比解释。
证明是学生发展数学成熟度的关键指标。然而,在学习证明的过程中,学生很难用好的论据来解释已经编纂的证明。所以我们需要一种可以让学生更好地参与阐明证明过程的策略。自我解释策略是一种可以探索学生解释几何证明思维过程的策略。本研究旨在通过在基础几何课中实施自我解释策略,分析未来师范学生理解几何证明的能力。本研究采用非等价对照组设计的准实验研究类型。本研究的参与者是三宝垄一所私立大学的 75 名数学教育学习专业的学生。本研究使用了四种几何证明工具测试。在用于研究之前,使用积差和 Cronbach's alpha 测试了这些工具的有效性和可靠性。本研究中的数据分析采用了双向方差分析。结果表明:使用自我解释策略的学生理解几何证明的能力比直接学习的学生更好;初始数学能力高、中水平学生群体的数学证明能力提升存在显著差异;初始数学能力(高、中、低)并不直接影响几何证明理解能力的学习过程,因此可以得出自我解释策略对于提高几何证明理解能力是有效的。
