随着人工智能 (AI) 在放射学领域的作用日益增强,人们对现代 AI 算法的黑箱性质感到担忧。AI 用户通常无法知道算法如何或为何得出预测,这使得用户很难评估或批评预测的质量。统称为可解释 AI (XAI) 的一组方法旨在通过提供算法输入和输出之间因果关系的人类可理解的解释来克服这一限制。XAI 的动机包括促进临床医生和 AI 系统之间的信任、实现错误检测和促进知情同意。然而,有人认为,XAI 实际上可能无法满足临床医生的需求,还可能带来意想不到的后果,从而可能损害 XAI 的预期价值 ( 1 )。在 2022 年核医学和分子成像学会年会上,我们就 XAI 的临床需求进行了辩论。我们在此通过讨论 5 个关键论点来总结这场辩论。对于每个论点,我们从数据科学、临床实践和生物伦理的角度提出支持和反对使用 XAI 的理由。首先,应该认识到,XAI 一词指的是多种方法,其中大多数最初是为医学以外的用途开发的 ( 2 )。XAI 包括可解释方法,其中 AI 算法被设计为本质上可解释,以及应用于已训练算法的事后方法。解释的呈现方式也可能有所不同 ( 3 )。在放射学中,XAI 通常通过显着图呈现,其突出显示对模型预测影响最大的图像部分。例如,Miller 等人。展示了显着图如何突出显示心肌中对 SPECT 图像中基于 AI 的冠状动脉疾病诊断影响最大的区域 ( 4 )。