[Buchanan 68] B. Buchanan、EA Feigenbaum 和 J. Lederberg,启发式 DENDRAL:一种用于生成有机化学解释假设的程序,1968 年 [Shortliffle 76] EH Shortliffe,基于计算机的医疗咨询:MYCIN,1976 年 [Buchanan 84] B. Buchanan 和 E. Shortliffe,基于规则的专家系统,1984 年
– 包括关于医学领域人工智能历史的章节(Shortliffe,2022 年) • 数字化诊断——人工智能的早期历史(Lea,2023 年) • 数据是如何产生的(Wiggins,2023 年) • 医疗保健领域的人工智能(Davenport,2022 年) • 医学领域的人工智能革命(Lee,2023 年) • 现实世界数据中人工智能的临床应用(Asselbergs,2023 年) • 医疗保健领域的转化应用(Reddy,2023 年) • 共同智能——与人工智能一起生活和工作(Mollick,2024 年)
图片来源:图 16.2 转载自 Y. Aloimonos 和 A. Rosenfeld 所著的《计算机视觉》,Science 253 (5025),1991 年 9 月 13 日,经出版商和作者许可。• 图 16.3a 和 16.6 转载自 John Canny 所著的《边缘检测的计算方法》,IEEE PAMI,版权所有 1986 IEEE,经出版商和作者许可。• 图 16.5 和 16.21 由 Donald F. Geddis 生成。• 图 16.19 转载自 Jim Razzi 所著的《Fun with Unicorns》,经 Scholastic Inc. 许可。• 图 16.20 由 Rebecca Evans and Associates 数字化。 • 图 18.1 和 18.2 经作者许可,摘自 William van Melle 所著的《MYCIN 系统的结构》,载于 Bruce G. Buchanan 和 Edward H. Shortliffe 编辑的《基于规则的专家系统:斯坦福启发式编程项目的 MYCIN 实验》。
人工智能 (AI) 的新纪元可以追溯到 1956 年,当时 John McCarthy 博士在美国汉诺威达特茅斯学院的一个夏季研讨会上首次提出了 AI 一词。由于研讨会非常成功,后来美国、日本、德国和英国的几所顶尖大学和计算机行业都投入巨资来理解、开发 AI 的方法和应用。著名的发明有麻省理工学院的 Joseph Weizenbaum 发明的 Eliza,斯坦福大学的 Edward Shortliffe 发明的 MYCIN 等专家系统,密歇根大学的 John Holland 博士发明的遗传算法。然而,对当今全球 AI 发展最值得注意的贡献是日本于 1980 年代启动的“第五代计算机项目”。该项目的成果不仅仅是发明和创新,最重要的是,为全世界提供了数以千计的聪明的 AI 工程师、程序员、技术人员、管理人员和推动者。自那时起,人工智能在几乎所有与制药、银行和金融、农业、食品加工、时尚、犯罪预防、智能家居、交通管制、野生动物保护、军事、灾害管理、医疗保健、机器人、制造业、体育、教育、人力资源、污染控制、政治等相关的基础和应用研究中都发挥了重要作用。为了成为这一方向的推动者和贡献者,浦那麻省理工世界和平大学 (MITWPU) 以在线模式组织了为期五天的教师发展计划 (FDP),题为“人工智能为所有人”。FDP 旨在阐明人工智能的概念、公式、应用等。来自世界各地的人工智能领域的精英和活跃研究人员均受邀参加。
然而,为智能系统配备解释能力的原因不仅限于用户权利和技术接受度问题。设计人员和开发人员还需要可解释性来增强系统稳健性并进行诊断以防止偏见、不公平和歧视,以及增加所有用户对决策原因和方式的信任。因此,能够解释为什么做出某个决定已成为智能系统的理想属性(Doran、Schulz 和 Besold,2017 年)。解释应帮助用户理解系统模型,以便维护和有效使用它;它们还应协助用户调试模型以防止和纠正错误的结论。此外,解释可以起到教育作用,并有助于人们发现和理解应用领域的新概念。最后,解释与用户的信任和说服有关,它们应该传达一种可操作性,并让用户相信系统的决策对他们来说是最方便的。尽管如此,对于什么是解释,以及一个好的解释包含什么,并没有明确的共识。它的表现形式已在不同的人工智能系统和学科中得到研究。在本文中,我们从传统方法以及目前正在开发的方法的历史角度来研究可解释人工智能 (XAI) 的文献。相关文献非常庞大,本文并非旨在对 XAI 文献进行完整概述。20 世纪 80 年代中期以后,人工智能中可解释性的概念与专家系统中的概念一起逐渐消退(Buchanan & Shortliffe,1984;Wick & Thompson,1992),而机器学习技术的最新成功(Guidotti et al.,2018)又将可解释性概念带回人们的视野,既适用于自主系统(Nunes & Jannach,2017),也适用于人机交互系统(Holzinger,2016;Holzinger,Plass,et al.,2019),还应用于推荐系统(Tintarev & Masthof,2015)以及神经符号学习和推理方法(Garcez et al.,2015)。对于每个观点,读者都可以找到机器学习和深度学习(Arrieta 等人,2020 年;Fernandez、Herrera、Cordon、Jose del Jesus 和 Marcelloni,2019 年;Guidotti 等人,2018 年;Mueller、Hoffman、Clancey、Emrey 和 Klein,2019 年)、推荐系统(Nunes 和 Jannach,2017 年;Tintarev 和 Masthof,2015 年)和神经符号方法(Garcez 等人,2015 年)方面更全面的文献综述。本文的目的是提供概述并讨论如何构想不同的可解释性概念(分别是解释格式),并提供几个示例。本文的主要贡献是: