然而,为智能系统配备解释能力的原因不仅限于用户权利和技术接受度问题。设计人员和开发人员还需要可解释性来增强系统稳健性并进行诊断以防止偏见、不公平和歧视,以及增加所有用户对决策原因和方式的信任。因此,能够解释为什么做出某个决定已成为智能系统的理想属性(Doran、Schulz 和 Besold,2017 年)。解释应帮助用户理解系统模型,以便维护和有效使用它;它们还应协助用户调试模型以防止和纠正错误的结论。此外,解释可以起到教育作用,并有助于人们发现和理解应用领域的新概念。最后,解释与用户的信任和说服有关,它们应该传达一种可操作性,并让用户相信系统的决策对他们来说是最方便的。尽管如此,对于什么是解释,以及一个好的解释包含什么,并没有明确的共识。它的表现形式已在不同的人工智能系统和学科中得到研究。在本文中,我们从传统方法以及目前正在开发的方法的历史角度来研究可解释人工智能 (XAI) 的文献。相关文献非常庞大,本文并非旨在对 XAI 文献进行完整概述。20 世纪 80 年代中期以后,人工智能中可解释性的概念与专家系统中的概念一起逐渐消退(Buchanan & Shortliffe,1984;Wick & Thompson,1992),而机器学习技术的最新成功(Guidotti et al.,2018)又将可解释性概念带回人们的视野,既适用于自主系统(Nunes & Jannach,2017),也适用于人机交互系统(Holzinger,2016;Holzinger,Plass,et al.,2019),还应用于推荐系统(Tintarev & Masthof,2015)以及神经符号学习和推理方法(Garcez et al.,2015)。对于每个观点,读者都可以找到机器学习和深度学习(Arrieta 等人,2020 年;Fernandez、Herrera、Cordon、Jose del Jesus 和 Marcelloni,2019 年;Guidotti 等人,2018 年;Mueller、Hoffman、Clancey、Emrey 和 Klein,2019 年)、推荐系统(Nunes 和 Jannach,2017 年;Tintarev 和 Masthof,2015 年)和神经符号方法(Garcez 等人,2015 年)方面更全面的文献综述。本文的目的是提供概述并讨论如何构想不同的可解释性概念(分别是解释格式),并提供几个示例。本文的主要贡献是: