摘要 用户对人工智能 (AI) 系统的信任已越来越多地得到认可,并被证明是促进采用的关键要素。有人提出,人工智能系统必须超越以技术为中心的方法,走向以人为本的方法,这是人机交互 (HCI) 领域的核心原则。本综述旨在概述 23 项实证研究中的用户信任定义、影响因素和测量方法,以收集未来技术和设计策略、研究和计划的见解,以校准用户与人工智能的关系。研究结果证实,定义信任的方法不止一种。重点应该是选择最合适的信任定义来描述特定环境中的用户信任,而不是比较定义。研究发现,用户对人工智能系统的信任受到三个主要主题的影响,即社会伦理考虑、技术和设计特征以及用户特征。用户特征在研究结果中占主导地位,强调了用户参与从开发到监控人工智能系统的重要性。研究还发现,不同环境以及用户和系统的各种特征都会影响用户信任,这凸显了根据目标用户群的特征选择和定制系统功能的重要性。重要的是,社会伦理考虑可以为确保用户与人工智能互动的环境足以建立和维持信任关系铺平道路。在衡量用户信任方面,调查是最常用的方法,其次是访谈和焦点小组。总之,在使用或讨论人工智能系统的每一个环境中,都需要直接解决用户信任问题。此外,校准用户与人工智能的关系需要找到不仅对用户而且对系统都适用的最佳平衡点。
主要关键词