可解释人工智能 (XAI) 是机器学习的一个新兴研究课题,旨在揭示 AI 系统的黑箱选择是如何做出的。该研究领域研究决策制定中涉及的措施和模型,并寻求解决方案来明确解释它们。许多机器学习算法无法说明决策的方式和原因。目前使用的最流行的深度神经网络方法尤其如此。因此,这些黑箱模型缺乏可解释性,可能会削弱我们对 AI 系统的信心。XAI 对于深度学习驱动的应用越来越重要,尤其是对于医疗和医疗保健研究,尽管一般来说,这些深度神经网络可以在性能上带来惊人的回报。大多数现有 AI 系统的可解释性和透明度不足可能是成功实施和将 AI 工具集成到常规临床实践中并不常见的主要原因之一。在本研究中,我们首先调查了 XAI 的当前进展,特别是其在医疗保健应用方面的进展。然后,我们介绍了利用多模式和多中心数据融合的 XAI 解决方案,并随后在两个真实临床场景的展示中进行了验证。全面的定量和定性分析可以证明我们提出的 XAI 解决方案的有效性,由此我们可以设想在更广泛的临床问题中成功应用。
摘要黑匣子算法在医学中的使用引起了学术界的不透明和缺乏可信赖性的关注。关注潜在的偏见,问责制和责任,患者自主权和通过黑匣子算法疏散的信任疏散。这些担忧将认知问题与规范问题联系起来。在本文中,我们概述了黑匣子算法出于认知的原因比许多学者似乎相信的要小。通过概述并非总是需要更多的算法透明度,并且通过解释计算过程对人类的方法论确实是不透明的,我们认为算法的可靠性提供了信任医疗人工智能(AI)的结果的原因。为此,我们解释了如何不需要透明度并支持算法的可靠性的计算可靠性,这证明了将医疗AI的结果信任的信念是合理的。我们还认为,即使结果值得信赖,黑匣子算法仍然存在一些道德问题。因此,从可靠指标中获得合理的知识是必要的,但不足以证明医生采取行动。这意味着需要对可靠算法的结果进行审议,以找出什么是理想的行动。因此,我们认为,这种挑战不应完全驳回黑匣子算法的使用,而应告知这些算法的设计和实施方式。训练医生以获取必要的技能和专业知识,并与医学信息学和数据科学家合作时,黑匣子算法可以有助于改善医疗服务。
这是作者接受的稿件,未经编辑、格式化或最终修改。最终稿件将发表在即将出版的《英国科学哲学杂志》上,该杂志由芝加哥大学出版社代表英国科学哲学学会出版。引用或引用时请包含 DOI:https://doi.org/10.1086/714960 版权所有 2021 英国科学哲学学会。
人类的决策。本论文依靠可解释的人工智能,通过使用几种最先进的不可知方法的改良,使心跳分类变得易于理解。为了解释时间序列分类器,提出了一种初步的分类法,并使用导数作为
摘要黑匣子算法在医学中的使用引起了学术界的不透明和缺乏可信赖性的关注。关注潜在的偏见,问责制和责任,患者自主权和通过黑匣子算法疏散的信任疏散。这些担忧将认知问题与规范问题联系起来。在本文中,我们概述了黑匣子算法出于认知的原因比许多学者似乎相信的要小。通过概述并非总是需要更多的算法透明度,并且通过解释计算过程对人类的方法论确实是不透明的,我们认为算法的可靠性提供了信任医疗人工智能(AI)的结果的原因。为此,我们解释了如何不需要透明度并支持算法的可靠性的计算可靠性,这证明了将医疗AI的结果信任的信念是合理的。我们还认为,即使结果值得信赖,黑匣子算法仍然存在一些道德问题。因此,从可靠指标中获得合理的知识是必要的,但不足以证明医生采取行动。这意味着需要对可靠算法的结果进行审议,以找出什么是理想的行动。因此,我们认为,这种挑战不应完全驳回黑匣子算法的使用,而应告知这些算法的设计和实施方式。训练医生以获取必要的技能和专业知识,并与医学信息学和数据科学家合作时,黑匣子算法可以有助于改善医疗服务。
算法和硬件的最新进展已经对机器学习产生了巨大的希望(ML),以成为复杂问题的几乎通用解决方案。这种热情迅速接管了医学研究,导致越来越多的出版物强调了ML的潜力,并伴随着越来越强烈的主张进入临床实践[1]。关于脑成像,通常是创新的领先者,这种发展背后的动机似乎很明显:MRI是高度标准化的,并且已经建立了数十年的受试者之间的分析。此外,几个大型和开放的数据集为模型培训提供了相对良好的资源[2]。精神病学也有临床需求:神经精神疾病是全球发病率和残疾调整后的生活年份的主要原因,因此,希望ML能够加速精神病学的诊断和疾病进度。尽管ML对精神病学有潜在的影响,但目前的状态和轨迹是否与高期望和经常大胆的诺言保持一致,这似乎是有争议的[3]。尤其是在精神病学中,需要更多考虑先决条件和更多方向来翻译