随着人工智能产品的普及,人类和人工智能越来越多地合作做出决策。为了使这种类型的合作取得成功,人类需要了解人工智能的能力,以便有效地校准他们的信任。在这些合作关系中,以人类可以理解的方式解释决策和预测至关重要,以鼓励信任校准。可解释人工智能领域专注于将可解释性融入人工智能,但旨在使人工智能模型更具可解释性。因此,这项研究通常从以模型为中心的角度而不是以人为中心的角度来处理解释。与此同时,行业研究人员已经制定了指导方针,以帮助界面设计师有效地生成用户友好的解释。然而,这些指导方针通常过于宽泛,无法有效指导行业设计师的日常工作。我们的研究通过两种方法解决了这一差距:一个实证实验,研究人们如何回应解释以及哪些类型的解释对信任校准最有帮助;以及一个教育资源,帮助行业设计师了解用户可能有什么问题,以及使用环境如何影响他们可能使用的解释。我们的实验结果表明,解释并不总是有助于信任校准,实际上可能会损害信任校准,尤其是面对自我能力较低的新手用户时。我们对行业设计师进行的探索性访谈和可用性测试表明,人们渴望一种全面但易于访问的教育资源,以转化我们实验等研究并指导可解释的 AI 产品界面的设计。关键词
主要关键词