人工智能嵌入式系统参与人类决策的传播使得研究人类对这些系统的信任变得至关重要。然而,实证研究信任具有挑战性。原因之一是缺乏设计信任实验的标准协议。在本文中,我们介绍了现有的实证研究人工智能辅助决策中信任的方法,并根据实验方案的构成要素分析了语料库。我们发现信任的定义通常不整合在实验方案中,这可能导致研究结果被夸大或难以解释和跨研究比较。借鉴社会和认知研究中关于人与人之间信任的实证实践,我们提供了实用指南,以改进在决策环境中研究人与人工智能信任的方法。此外,我们提出了两类研究机会:一类侧重于对信任方法的进一步研究,另一类侧重于影响人与人工智能信任的因素。
人工智能嵌入式系统参与人类决策的传播使得研究人类对这些系统的信任变得至关重要。然而,实证研究信任具有挑战性。原因之一是缺乏设计信任实验的标准协议。在本文中,我们介绍了现有的实证研究人工智能辅助决策中信任的方法,并根据实验方案的构成要素分析了语料库。我们发现信任的定义通常不整合在实验方案中,这可能导致研究结果被夸大或难以解释和跨研究比较。借鉴社会和认知研究中关于人与人之间信任的实证实践,我们提供了实用指南,以改进在决策环境中研究人与人工智能信任的方法。此外,我们提出了两类研究机会:一类侧重于对信任方法的进一步研究,另一类侧重于影响人与人工智能信任的因素。