摘要研究表明,非专家用户倾向于过度信任或不信任人工智能系统。当人工智能应用于医疗保健时,这引起了人们的担忧,患者信任不可靠系统的建议或完全不信任可靠系统的建议可能会导致致命事故或错过医疗保健机会。先前的研究表明,解释可以帮助用户对人工智能系统的信任做出适当的判断,但如何在医疗支持场景中为非专家用户设计人工智能解释界面仍然是一个悬而未决的研究挑战。本文探讨了一个基于阶段的参与式设计过程,以在人工智能医疗支持场景中为非专家开发一个值得信赖的解释界面。值得信赖的解释是一种帮助用户对医疗保健是否信任人工智能系统做出深思熟虑的判断的解释。本文的目的是确定可以有效地为值得信赖的解释界面的设计提供信息的解释组件。为了实现这一目标,我们进行了三次数据收集,研究了专家和非专家对人工智能医疗支持系统解释的看法。然后,我们开发了一个用户心理模型、一个专家心理模型和一个目标心理模型,描述了非专家和专家如何理解解释,他们的理解有何不同,以及如何将它们结合起来。基于目标心理模型,我们提出了一套 14 条解释设计指南,用于可信的人工智能医疗系统解释,这些指南考虑到了非专家用户的需求、医疗专家的实践和人工智能专家的理解。
主要关键词