摘要 人工智能 (AI) 在各个领域的广泛应用导致了对算法理解、透明度和可信度的需求日益增长。可解释人工智能 (XAI) 领域旨在开发能够以人类可理解的方式检查和解释人工智能系统行为的技术。然而,解释的有效性取决于用户如何看待它们,而它们的可接受性与理解程度和与用户现有知识的兼容性有关。到目前为止,XAI 的研究人员主要关注解释的技术方面,大多没有考虑用户的需求,而这方面对于值得信赖的人工智能来说是必须考虑的。与此同时,人们对以人为本的方法越来越感兴趣,这种方法侧重于人工智能与人机交互的交集,即所谓的以人为本的 XAI (HC-XAI)。HC-XAI 探索了实现 XAI 系统的用户满意度、信任度和接受度的方法。本文对 HC-XAI 进行了系统调查,回顾了来自各个数字图书馆的 75 篇论文。本文的贡献包括:(1)确定常见的以人为本的方法,(2)为读者提供 HC-XAI 方法设计视角的见解,以及(3)对所有研究论文进行定量和定性分析。研究结果激发了讨论,并为 HC-XAI 正在进行和即将开展的研究提供了启示。
主要关键词