摘要研究表明,非专家用户倾向于过度信任或不信任人工智能系统。当人工智能应用于医疗保健时,这引起了人们的担忧,患者信任不可靠系统的建议或完全不信任可靠系统的建议可能会导致致命事故或错过医疗保健机会。先前的研究表明,解释可以帮助用户对人工智能系统的信任做出适当的判断,但如何在医疗支持场景中为非专家用户设计人工智能解释界面仍然是一个悬而未决的研究挑战。本文探讨了一个基于阶段的参与式设计过程,以在人工智能医疗支持场景中为非专家开发一个值得信赖的解释界面。值得信赖的解释是一种帮助用户对医疗保健是否信任人工智能系统做出深思熟虑的判断的解释。本文的目的是确定可以有效地为值得信赖的解释界面的设计提供信息的解释组件。为了实现这一目标,我们进行了三次数据收集,研究了专家和非专家对人工智能医疗支持系统解释的看法。然后,我们开发了一个用户心理模型、一个专家心理模型和一个目标心理模型,描述了非专家和专家如何理解解释,他们的理解有何不同,以及如何将它们结合起来。基于目标心理模型,我们提出了一套 14 条解释设计指南,用于可信的人工智能医疗系统解释,这些指南考虑到了非专家用户的需求、医疗专家的实践和人工智能专家的理解。
免责声明:“本文提供的信息、数据或工作部分由美国政府机构资助。美国政府及其任何机构或其任何雇员均不对所披露的任何信息、设备、产品或流程的准确性、完整性或实用性做任何明示或暗示的保证,也不承担任何法律责任或义务,也不表示其使用不会侵犯私有权利。本文以商品名、商标、制造商或其他方式提及任何特定商业产品、流程或服务并不一定构成或暗示美国政府或其任何机构对其的认可、推荐或支持。本文表达的作者的观点和意见不一定代表或反映美国政府或其任何机构的观点和意见。”