1) MD Zeiler 和 R. Fergus:可视化和理解卷积网络,欧洲计算机视觉会议 (2014)。 2) https://jp.mathworks.com/help/deeplearning/ug/understand- network-predictions-using-occlusion.html 3) Noriyoshi Miyoshi、Ryo Kawasaki、Hidetoshi Eguchi 和 Yuichiro Toki:大阪大学 AI 医院和胃肠外科的现状和前景,Surgery, 83, 11 (2021) 1153。
解释人工智能的决策已成为一个重要的研究课题。使用深度学习进行图像分类取得了长足的进步(Krizhevsky 等人,2012 年;LeCun 等人,2015 年),引起了人们对解释图像分类结果的浓厚兴趣。尽管可解释人工智能 (XAI) 有许多应用,但本文首先关注学习对图像进行分类。然后,我们讨论可解释人工智能的更广泛含义。最近的会议包括有关可解释人工智能的教程和研讨会。有几项关于 XAI 的很好的调查(Chakraborty 等人,2017 年和 Došilović 等人,2018 年)。这不是其中之一。相反,在与放射学和眼科学专家以及鸟类识别专家一起研究问题之后,我们得出结论,现有技术仍有很大改进空间。该领域需要更多的方向和方法,包括明确 XAI 的目标,特别是在用户、专家和图像分类方面。尽管 XAI 的一些最初目标是“向人类用户解释他们的决定和行动”(Gunning & Aha,2018),但目前最先进的技术是以开发人员为中心,而不是以用户为中心。解释图像分类的主要方法是为图像上叠加的显着图或热图上的像素或区域分配重要性分数,用颜色尺度(红色、橙色、黄色……)可视化区域的重要性。为创建热图而开发的方法包括遮挡灵敏度(Zeiler &
解释AI的决定已成为一个重要的研究主题。使用深度学习(Krizhevsky等,2012; Lecun等,2015)在图像分类方面取得了很大进展,对解释图像分类的结果产生了重大兴趣。尽管有许多可解释的AI(XAI)的信息,但本文首先着重于学习对图像进行分类。然后,我们讨论可解释AI的更广泛的信息。最近的会议包括有关可解释AI的教程和讲习班。XAI有几项好的调查(Chakraborty等人。,2017&došilović等,2018)。这不是其中之一。取而代之的是,在与放射学和眼科专家解决问题以及鸟类识别方面的问题之后,我们得出的结论是,现有的技术留出了很大的改进空间。该领域需要其他方案和方法,包括澄清XAI的目标,尤其是在用户,专家和图像分类方面。尽管Xai的一些最初目标是“向人类用户解释他们的决策和行动”(Gunning&Aha,2018),但最新的最新目前是以开发人员为中心的,而不是以用户为中心。解释图像分类的主要方法是将重要性得分分配给图像上的显着图或区域上的像素或区域,以形象化区域的重要性(红色,橙色,黄色…)。为创建热图开发的方法包括遮挡灵敏度(Zeiler&