然而,为智能系统配备解释能力的原因不仅限于用户权利和技术接受度问题。设计人员和开发人员还需要可解释性来增强系统稳健性并进行诊断以防止偏见、不公平和歧视,以及增加所有用户对决策原因和方式的信任。因此,能够解释为什么做出某个决定已成为智能系统的理想属性(Doran、Schulz 和 Besold,2017 年)。解释应帮助用户理解系统模型,以便维护和有效使用它;它们还应协助用户调试模型以防止和纠正错误的结论。此外,解释可以起到教育作用,并有助于人们发现和理解应用领域的新概念。最后,解释与用户的信任和说服有关,它们应该传达一种可操作性,并让用户相信系统的决策对他们来说是最方便的。尽管如此,对于什么是解释,以及一个好的解释包含什么,并没有明确的共识。它的表现形式已在不同的人工智能系统和学科中得到研究。在本文中,我们从传统方法以及目前正在开发的方法的历史角度来研究可解释人工智能 (XAI) 的文献。相关文献非常庞大,本文并非旨在对 XAI 文献进行完整概述。20 世纪 80 年代中期以后,人工智能中可解释性的概念与专家系统中的概念一起逐渐消退(Buchanan & Shortliffe,1984;Wick & Thompson,1992),而机器学习技术的最新成功(Guidotti et al.,2018)又将可解释性概念带回人们的视野,既适用于自主系统(Nunes & Jannach,2017),也适用于人机交互系统(Holzinger,2016;Holzinger,Plass,et al.,2019),还应用于推荐系统(Tintarev & Masthof,2015)以及神经符号学习和推理方法(Garcez et al.,2015)。对于每个观点,读者都可以找到机器学习和深度学习(Arrieta 等人,2020 年;Fernandez、Herrera、Cordon、Jose del Jesus 和 Marcelloni,2019 年;Guidotti 等人,2018 年;Mueller、Hoffman、Clancey、Emrey 和 Klein,2019 年)、推荐系统(Nunes 和 Jannach,2017 年;Tintarev 和 Masthof,2015 年)和神经符号方法(Garcez 等人,2015 年)方面更全面的文献综述。本文的目的是提供概述并讨论如何构想不同的可解释性概念(分别是解释格式),并提供几个示例。本文的主要贡献是:
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.
[1] 2022. 韦氏词典:美国最值得信赖的在线词典。https://www.merriam-webster.com [2] Diego Antognini、Claudiu Musat 和 Boi Faltings。2021. 通过批评与解释互动。第三十届国际人工智能联合会议 IJCAI-21 论文集,周志华(编辑)。国际人工智能联合会议组织,515–521。https://doi.org/10.24963/ijcai.2021/72 主轨道。 [3] Alejandro Barredo Arrieta、Natalia Diaz-Rodriguez、Javier Del Ser、Adrien Bennetot、Siham Tabik、Alberto Barbado、Salvador Garcia、Sergio Gil-Lopez、Daniel Molina、Richard Benjamins、Raja Chatila 和 Francisco Herrera。2020 年。可解释人工智能 (XAI):概念、分类法、机遇和挑战,迈向负责任的人工智能。Inf. Fusion 58 (2020),82–115。[4] Gagan Bansal、Besmira Nushi、Ece Kamar、Walter S. Lasecki、Daniel S. Weld 和 E. Horvitz。2019 年。超越准确性:心智模型在人机团队表现中的作用。在 AAAI 人类计算与众包会议 (HCOMP) 上。 [5] Gagan Bansal、Tongshuang (Sherry) Wu、Joyce Zhou、Raymond Fok、Besmira Nushi、Ece Kamar、Marco Túlio Ribeiro 和 Daniel S. Weld。2021 年。整体是否超过部分?人工智能解释对互补团队绩效的影响。2021 年 CHI 计算机系统人为因素会议论文集 (2021 年)。[6] Pieter J. Beers、Henny PA Boshuizen、Paul A. Kirschner 和 Wim H. Gijselaers。2006 年。共同点、复杂问题和决策。群体决策与谈判 15 (2006),529–556。 [7] Umang Bhatt、Alice Xiang、S. Sharma、Adrian Weller、Ankur Taly、Yunhan Jia、Joydeep Ghosh、Ruchir Puri、José MF Moura 和 P. Eckersley。2020 年。可解释的机器学习在部署中的应用。2020 年公平、问责和透明度会议论文集 (2020 年)。[8] Wayne C Booth、William C Booth、Gregory G Colomb、Gregory G Colomb、Joseph M Williams 和 Joseph M Williams。2003 年。研究的技巧。芝加哥大学出版社。[9] Andrea Brennen。2020 年。当人们说他们想要“可解释的人工智能”时,他们真正想要的是什么?我们询问了 60 位利益相关者。2020 年 CHI 计算系统人为因素会议扩展摘要。1-7。 [10] Zana Buccinca、Phoebe Lin、Krzysztof Z Gajos 和 Elena Leah Glassman。2020 年。代理任务和主观测量可能会在评估可解释的人工智能系统时产生误导。第 25 届智能用户界面 (IUI) 国际会议论文集 (2020 年)。[11] Hao-Fei Cheng、Ruotong Wang、Zheng Zhang、Fiona O'Connell、Terrance Gray、F. Maxwell Harper 和 Haiyi Zhu。2019 年。通过 UI 解释决策算法:帮助非专家利益相关者的策略。在 2019 年 CHI 计算机系统人为因素会议论文集 (英国苏格兰格拉斯哥) 中。美国纽约州纽约,1-12。 https://doi.org/10.1145/3290605.3300789 [12] Erin K. Chiou 和 John D. Lee。2021 年。信任自动化:为响应性和弹性而设计。《人为因素》(2021 年)。[13] Meia Chita-Tegmark、Theresa Law、Nicholas Rabb 和 Matthias Scheutz。2021 年。您可以信任您的信任衡量标准吗?2021 年 ACM/IEEE 人机交互国际会议论文集 (2021),第 92-100 页。https://doi.org/10.1145/3434073.3444677 [14] Jin-Hee Cho、Kevin Chan 和 Sibel Adali。2015 年。信任建模调查。ACM 计算调查 (CSUR) 48,2(2015 年),1-40。[15] Herbert H. Clark。1996 年。使用语言。剑桥大学出版社。[16] David Roxbee Cox。1958 年。实验规划。 (1958 年)。
