Loading...
机构名称:
¥ 1.0

摘要 研究表明,非专家用户倾向于过度信任或不信任人工智能系统。当人工智能应用于医疗保健时,这引起了人们的担忧,因为患者信任不可靠系统的建议或完全不信任可靠系统的建议可能会导致致命事故或错失医疗保健机会。先前的研究表明,解释可以帮助用户对人工智能系统的信任做出适当的判断,但如何在医疗支持场景中为非专家用户设计人工智能解释界面仍然是一个悬而未决的研究挑战。本文探讨了一个基于阶段的参与式设计过程,以在人工智能医疗支持场景中为非专家开发一个值得信赖的解释界面。值得信赖的解释是一种帮助用户做出深思熟虑的判断,是否信任人工智能系统用于他们的医疗保健的解释。本文的目的是确定可以有效指导可信解释界面设计的解释组件。为了实现这一目标,我们进行了三次数据收集,研究了专家和非专家对人工智能医疗支持系统解释的看法。然后,我们开发了解释的用户心智模型、专家心智模型和目标心智模型,描述了非专家和专家如何理解解释、他们的理解有何不同以及如何将它们结合起来。基于目标心智模型,我们提出了一套 14 条解释设计指南,用于值得信赖的 AI 医疗系统解释,这些指南考虑到了非专家用户的需求、医疗专家的实践和 AI 专家的理解。

非专家用户信任的解释设计

非专家用户信任的解释设计PDF文件第1页

非专家用户信任的解释设计PDF文件第2页

非专家用户信任的解释设计PDF文件第3页

非专家用户信任的解释设计PDF文件第4页

非专家用户信任的解释设计PDF文件第5页

相关文件推荐

2024 年
¥2.0