摘要:人工智能 (AI) 系统在生物医学和临床环境中的使用可能会破坏传统的医患关系,这种关系基于医疗建议和治疗决策中的信任和透明度。当诊断或治疗选择不再仅由医生做出,而在很大程度上由使用算法的机器做出时,决策就会变得不透明。技能学习是机器学习算法在临床决策中最常见的应用。这些是一类非常通用的算法(人工神经网络、分类器等),它们根据示例进行调整,以优化对新的、未见过的病例的分类。要求对决定进行解释是没有意义的。统计学或计算机科学专家可能能够详细了解 AI 算法的数学细节。然而,当涉及到人类的命运时,这种“开发者的解释”是不够的。作为解决这一问题的可解释人工智能(XAI)的概念正在吸引越来越多的科学和监管兴趣。本评论重点关注 XAI 必须能够向该领域的专家详细解释人工智能做出的决定这一要求。