摘要:本文介绍了可解释人工智能方法在医学图像分析场景中提供决策支持的潜力。通过将三种可解释方法应用于同一医学图像数据集,我们旨在提高卷积神经网络 (CNN) 提供的决策的可理解性。视频胶囊内窥镜 (VCE) 获得的体内胃部图像是视觉解释的主题,目的是提高医疗专业人员对黑盒预测的信任度。我们实施了两种事后可解释机器学习方法,称为局部可解释模型不可知解释 (LIME) 和 SHapley 附加解释 (SHAP),以及一种替代解释方法,即上下文重要性和效用 (CIU) 方法。产生的解释由人工评估。我们根据 LIME、SHAP 和 CIU 提供的解释进行了三项用户研究。来自不同非医学背景的用户在基于网络的调查环境中进行了一系列测试,并陈述了他们对给定解释的经验和理解。我们对具有三种不同解释形式的三个用户组(n = 20、20、20)进行了定量分析。我们发现,正如假设的那样,在改善对人类决策的支持以及更加透明从而让用户更容易理解方面,CIU 可解释方法比 LIME 和 SHAP 方法表现更好。此外,CIU 因能够更快地生成解释而优于 LIME 和 SHAP。我们的研究结果表明,在不同的解释支持设置之间,人类的决策存在显著差异。与此相符,我们提出了三种潜在的可解释方法,随着未来实施的改进,这些方法可以推广到不同的医疗数据集,并为医疗专家提供有效的决策支持。