摘要 在胸部 X 光 (CXR) 诊断领域,现有研究通常仅侧重于确定放射科医生的注视点,通常是通过检测、分割或分类等任务。然而,这些方法通常被设计为黑盒模型,缺乏可解释性。在本文中,我们介绍了可解释人工智能 (I-AI),这是一种新颖的统一可控可解释流程,用于解码放射科医生在 CXR 诊断中的高度关注度。我们的 I-AI 解决了三个关键问题:放射科医生注视的位置、他们在特定区域关注的时间以及他们诊断出的发现。通过捕捉放射科医生凝视的强度,我们提供了一个统一的解决方案,可深入了解放射学解释背后的认知过程。与当前依赖黑盒机器学习模型的方法不同,这些方法在诊断过程中很容易从整个输入图像中提取错误信息,而我们通过有效地屏蔽不相关的信息来解决这个问题。我们提出的 I-AI 利用视觉语言模型,可以精确控制解释过程,同时确保排除不相关的特征。为了训练我们的 I-AI 模型,我们利用眼球注视数据集来提取解剖注视信息并生成地面真实热图。通过大量实验,我们证明了我们方法的有效性。我们展示了旨在模仿放射科医生注意力的注意力热图,它编码了充分和相关的信息,仅使用 CXR 的一部分即可实现准确的分类任务。代码、检查点和数据位于 https://github.com/UARK-AICV/IAI。1. 简介
在本文中,我们研究了新哥本哈根(或“认识论实用主义”)对量子力学的主要解释之间的相似之处和差异,这些解释在这里被定义为拒绝量子态的本体论性质并同时避免隐藏变量,同时保持量子形式不变。我们认为,存在一个具有共同核心的单一通用解释框架,所有这些解释都致力于这个框架,因此它们可以被视为它的不同实例,其中一些差异主要是重点和程度的问题。然而,我们也发现了更实质性的剩余差异,并对它们进行了初步分析。我们还认为,这些剩余的差异无法在量子力学本身的形式主义中得到解决,并确定了可用于打破这种解释不确定性的更普遍的哲学考虑。
存在强化学习之类的应用,例如医学,其中政策需要被人类“解释”。用户研究表明,某些政策类可能比其他政策类更容易解释。但是,进行人类的政策解释性研究是昂贵的。此外,没有明确的解释性定义,即没有明确的指标来解释性,因此主张取决于所选的定义。我们解决了通过人类解释性的经验评估政策的问题。尽管缺乏明确的定义,但研究人员对“模拟性”的概念达成了共识:政策解释性应与人类如何理解所给出的政策行动有关。为了推进可解释的强化学习研究,我们为评估政策解释性做出了新的方法。这种新方法依赖于代理来进行模拟性,我们用来对政策解释性进行大规模的经验评估。我们使用模仿学习来通过将专家神经网络提炼为小程序来计算基线政策。然后,我们表明,使用我们的方法来评估基准解释性会导致与用户研究相似的结论。我们表明,提高可解释性并不一定会降低表现,有时会增加它们。我们还表明,没有政策类别可以更好地跨越各个任务的可解释性和绩效进行交易,这使得研究人员有必要拥有比较政策可解释性的方法。
鉴于ML的巨大潜力,令人惊讶的是,它们在许多领域的吸收要比从纯技术效率的角度看待的要慢得多。在经济数据分析中,ML擅长计算回归分析和基于群集的分类任务的扩展。但是,由于这些方法通常被认为是不透明的,因此他们所谓的黑匣子角色反复受到批评。某些用例(例如基于AI的信用申请的决策支持)可能会改善和加速银行的业务运营,但还需要增加复制现有结构和决策模式中固有的隐藏偏见的风险。因此,解释ML模型的内部运作对于证明决策并产生新的见解至关重要(Adadi&Berrada,2018)。
摘要:但是,随着机器学习(ML)模型越来越多地嵌入必须做出的关键决策中,可解释性成为关键功能,因为我们需要确保透明度和对自动化系统的信任。当前,尚无旨在处理复杂或不完整数据的可解释性方法,这严重限制了其对现实世界问题的应用。在本文中,我使用不完整信息(ECII)算法的增强概念归纳来介绍通过引入自动化概念诱导来增强ML的可解释性。使用描述逻辑和域特定背景知识的使用可以通过使用ECII算法来生成有关ML决策的直观,可理解的解释。我们讨论了该算法的方法,它与描述逻辑的集成,并在几个域中呈现其应用程序,并证明其关闭了复杂的ML模型输出和用户频道解释性之间的低点。关键字:机器学习,可解释性,不完整信息(ECII),描述逻辑,不完整数据,自动概念诱导,特定领域特定知识,AI中的透明度。
1,2技术科学学院 - Sebha 3高级技术工程研究所 - Sebha摘要:随着人工智能(AI)继续推动各个领域的进步,AI模型中对解释性的需求变得越来越重要。许多最先进的机器学习模型,尤其是深度学习体系结构,都是“黑匣子”,使他们的决策过程难以解释。可解释的AI(XAI)旨在提高模型透明度,确保AI驱动的决策是可以理解的,可信赖的,并且与道德和监管标准保持一致。本文探讨了AI解释性的不同方法,包括本质上可解释的模型,例如决策树和逻辑回归,以及诸如Shap(Shapley添加说明)和Lime(局部可解释的模型 - 敏捷的解释)之类的事后方法。此外,我们讨论了解释性的挑战,包括准确性和可解释性之间的权衡,可伸缩性问题以及特定领域的要求。本文还重点介绍了XAI在医疗保健,金融和自治系统中的现实应用。最后,我们研究了未来的研究方向,强调了混合模型,因果解释性和人类协作。通过培养更容易解释的AI系统,我们可以增强数据科学应用程序中的信任,公平性和问责制。关键字:可解释的AI(XAI),可解释性,机器学习,黑盒模型,模型透明度,摇摆,石灰,道德AI,可信赖的AI,事后解释性,偏置缓解性,调节性,监管合规性,人类 - ai相互作用。
Lorenzo of Galluzzi, 1,2,3,4,5 Ilio Vitale, 6.7 Sarah Warren, 8 Sandy Adgemian, 9,10 Patricksia of Agostinis, 1,2,16 Eric Deutsch, 17,18,19 Dobrin Draganov, 20 Richard L Edelson, 4,21 Silvia C Formenti, 1.2 Jian Han, 5,37,39,40,40,41,43,43.44 Juna Lasarte,45 Sherene Loi,46,47 Michael Tlotze,48,49,49。 Prosper,70 Tatsuno Kazuki,
摘要。我们为受路易斯·德·布罗格利(Louis de Broglie)的双重分解理论启发的量子力学提出了解释框架。原理是将量子系统的演变分解为两个波函数:与其质量中心相对应的外波函数以及其他宏观自由度的演变,以及对应于其内部变量在中心中心系统中内部变量演变的内部波函数。这两个波函数将具有不同的含义和解释。外波函数“试验”量子系统的质量中心:它对应于de Broglie Pilot Wave。对于内部波函数,我们主张1927年在Solvay国会上提出的解释:颗粒是扩展的,并且电子的(内部)波函数的模块的平方与其在太空中的电荷密度相对应。Résumé。nous提议une delaMécaniquedelaMécaniquequi s'inspire de lathéoriede la doul double Solution de Louis de Broglie。Le principe est de considérer l'évolution d'un sys- tème quantique sous la forme de deux fonctions d'onde : une fonction d'onde externe correspondant à l'évolution de son centre de masse et de ces autres degrés de liberté macroscopique, et une fonction d'onde interne correspondant à l'évolutionde ses变量实习生dans leréférentieldu Center de Masse。ces deux fonctions d'Onde vont vont avoir des ves des desuttations di a vientations。la fonction d'Onde externe pilote le Center de Masse dusystèmeQuantique:Elle sossection use sosectionunde unde unde pilote de louis de louis de Broglie。对于内部波函数,我们捍卫了ErwinSchrödinger在1927年Solvay国会上提出的解释:颗粒是扩展的,并且电子的(内部)波函数模块的平方与其在太空中的负载密度相对应。