Loading...
机构名称:
¥ 1.0

解释人工智能的决策已成为一个重要的研究课题。使用深度学习进行图像分类取得了长足的进步(Krizhevsky 等人,2012 年;LeCun 等人,2015 年),引起了人们对解释图像分类结果的浓厚兴趣。尽管可解释人工智能 (XAI) 有许多应用,但本文首先关注学习对图像进行分类。然后,我们讨论可解释人工智能的更广泛含义。最近的会议包括有关可解释人工智能的教程和研讨会。有几项关于 XAI 的很好的调查(Chakraborty 等人,2017 年和 Došilović 等人,2018 年)。这不是其中之一。相反,在与放射学和眼科学专家以及鸟类识别专家一起研究问题之后,我们得出结论,现有技术仍有很大改进空间。该领域需要更多的方向和方法,包括明确 XAI 的目标,特别是在用户、专家和图像分类方面。尽管 XAI 的一些最初目标是“向人类用户解释他们的决定和行动”(Gunning & Aha,2018),但目前最先进的技术是以开发人员为中心,而不是以用户为中心。解释图像分类的主要方法是为图像上叠加的显着图或热图上的像素或区域分配重要性分数,用颜色尺度(红色、橙色、黄色……)可视化区域的重要性。为创建热图而开发的方法包括遮挡灵敏度(Zeiler &

以专家为依据、以用户为中心的机器学习解释

以专家为依据、以用户为中心的机器学习解释PDF文件第1页

以专家为依据、以用户为中心的机器学习解释PDF文件第2页

以专家为依据、以用户为中心的机器学习解释PDF文件第3页

以专家为依据、以用户为中心的机器学习解释PDF文件第4页

以专家为依据、以用户为中心的机器学习解释PDF文件第5页

相关文件推荐

2023 年
¥1.0
2024 年
¥33.0
2021 年
¥2.0
2024 年
¥1.0