本研究旨在更好地理解人机自主团队中的信任,发现信任与团队绩效相关。在一项实验中,研究人员采用了“绿野仙踪”方法,模拟了在遥控飞机系统环境中作为团队成员的自主代理。这项研究的具体重点是人机自主团队的团队绩效和团队社交行为(特别是信任)。结果表明:1)低绩效团队对自主代理的信任程度低于中绩效和高绩效团队;2)随着时间的推移,低绩效、中绩效和高绩效团队对自主代理的信任度都在下降;3)除了人类团队成员对自主代理的信任度较低外,低绩效和中绩效团队也对其人类团队成员的信任度较低。1. 简介近年来,人机交互已在众多研究界得到研究,包括人为因素、信息科学和计算机科学,以及多个不同的焦点(沟通、意识、信任等)。鉴于技术
在临床决策中,一旦建立了 AI 技术的可信度,对 AI 得出的信息(AI 系统向临床医生提供的输出)的高度信任可能并不总是可取的。相反,根据上下文和情况,对给定 AI 技术的单个输出可能持有不同的置信度。在临床决策过程中,对 AI 得出的信息的信任度将取决于许多因素,包括临床情况和其他可用的信息来源。因此,挑战在于让用户能够做出依赖于上下文的价值判断,并不断确定对 AI 得出的信息的适当信任度,平衡 AI 得出的信息与传统临床信息。
随着各国政府越来越多地探索和投资人工智能和自动决策系统,我们需要采取措施确保这些快速发展的技术在公共服务的特殊环境中得到适当使用。在许多国家,COVID 创造了一个信任度提高的泡沫,这个泡沫可以说已经破灭了,在一个对公共机构前所未有的不信任的时代(但即使在信任度很高的时代),服务速度更快或更具成本效益是不够的。本文为政府系统(技术平台、运营、文化、治理、参与等)提出了建议,这些建议将有助于提高公众对公共机构、政策和服务的信心和信任,同时履行公共部门的特殊义务和责任。
深度学习 (DL) 是机器学习 (ML) 的一个子领域,专注于开发深度神经网络 (DNN) 模型 (Shahroudnejad,2021)。DNN 是能够在各种任务上实现高性能的复杂模型。许多深度神经网络模型都是不可解释的黑匣子,这通常导致用户对它们的信任度降低 (Miller,2019)。这种可解释性和信任度的缺乏可能会产生负面影响——人们可能会使用会犯错误的人工智能,或者不使用可以提高获得期望结果的机会的人工智能。为了提高黑盒模型的可解释性和可信度,可解释人工智能 (XAI) 研究专注于开发方法来以人类可以理解的方式解释这些模型的行为 (Molnar,2020)。
机器人化和人工智能 (AI) 有望深刻改变社会。信任是人与技术互动的重要因素,因为机器人和人工智能越来越多地参与到以前由人类处理的任务中。目前,需要研究对人工智能和机器人的信任,尤其是在初次见面时。本文报告了一项在线信任游戏实验中对机器人和人工智能信任的研究结果。信任游戏操纵了被描述为人工智能或机器人的假设对手。将这些对手与仅使用人类姓名或昵称的对照组对手进行比较。参与者 (N = 1077) 居住在美国。用机器人或人工智能描述对手不会影响参与者对他们的信任。名为 jdrx894 的机器人是最受信任的对手。名为“jdrx894”的对手比名为“Michael”的对手更受信任。进一步分析表明,拥有技术或工程学位、在线接触机器人和机器人使用自我效能可预测对机器人和人工智能的信任度更高。在五大性格特征中,经验开放性可预测更高的信任度,而尽责性可预测更低的信任度。结果表明,对机器人和人工智能的信任与环境有关,也取决于个体差异和技术知识。
这项研究发现,美国东南部部分地区,特别是佐治亚州和阿拉巴马州、达科他州和西弗吉尼亚州,有多个县对 COVID-19 疫苗犹豫不决率高,未接种疫苗或不完整接种 COVID-19 疫苗的比例也很高。此外,100 多名健康中心计划获奖者为这些地区的近 200 万患者提供服务。截至 2021 年 9 月,全国范围内,超过一半的美国成年人接种了疫苗,但年轻人、种族和少数民族以及几个州的人口的疫苗接种率要低得多。1 较低的 COVID-19 疫苗接种率与疫苗接种机会有限和疫苗信心较低有关,6 研究表明需要重点关注种族和少数民族以及其他弱势群体。 7 鉴于卫生中心在为这些人群接种 COVID-19 疫苗方面发挥着重要作用,针对疫苗信任度低和疫苗接种率低地区的卫生中心开展工作有助于战略规划,优化有限资源,并更好地协助卫生中心开展具有文化针对性的外展活动,提高人们对疫苗的信心。
Maarten Edwards 佛罗里达理工学院 Timothy Rosser 佛罗里达理工学院 这项研究调查了机组人员出现故障后乘客的信任程度。这项研究旨在确定是否存在反向传染效应,即乘客对自动化系统组件的信任受到人为系统元素错误的影响。信任度由来自印度和美国的参与者在五个人类实体和五个自动化辅助设备中进行测量。人类实体包括飞行员、副驾驶员、乘务员、维修经理和航空公司首席执行官。自动化辅助设备包括氧气面罩、自动驾驶系统、飞机襟翼、起落架和座椅背面的视频屏幕。这项研究分三个阶段进行,包括两个三向方差分析以确定影响,以及冥想分析以确定影响是否介导影响。参与者面临两种假设情景,一种是控制条件,一种是失败条件。参与者对五个不同的人类实体和五个不同的自动化辅助工具的信任程度进行评分。信任度采用 7 点李克特量表进行测量,范围从 -3 到 +3。还询问了与参与者感受相关的问题以衡量情感。结果显示,在人类失败后,对自动化辅助工具的信任度下降,以及国家效应和情感的中介效应。推荐引用:Mehta, R. Chauhan, B., Edwards, M., Rosser, T., Dunbar, V., & Rice, S. (2019)。SWT 是否会逆转
对信任的生理或神经系统相关性的研究由于需要连续衡量信任度,包括信任敏感或适应性系统,信任度或技术的疼痛点的测量或对人类在循环网络网络入侵检测中的衡量。了解技术领域之间生理反应的局限性和概括性非常重要,因为结果领域的基本特征,相应的用例以及技术的社会可接受的行为受到结果的有用性和相关性。虽然对自动化信任的神经相关性的调查越来越受欢迎,但对信任的神经相关性的了解有限,而当前绝大多数当前研究都在网络或决策援助技术中进行。因此,这些相关性是针对其他领域的可部署措施以及对用例的鲁棒性的鲁棒性,这是未知的。因此,本手稿讨论了信任感知中的当前知识,影响信任的因素以及信任的相应神经相关性是在域之间可推广的。
随着人工智能 (AI) 越来越多地被用作商业战略的重要组成部分,在人类和 AI 队友之间建立信任仍然是一个关键问题。“我们同舟共济”项目重点介绍了当前关于人机团队 (HAIT) 信任的理论,并提出了一个研究模型,该模型整合了工业和组织心理学、人为因素工程、人机交互和计算机科学的见解。提出的模型表明,在 HAIT 中,信任涉及多个参与者,对团队成功至关重要。我们提出了三个主要命题来理解 HAIT 协作中的信任,重点关注人类和 AI 队友之间人际关系中的信任度和信任度反应。我们进一步指出,个人、技术和环境因素会影响 HAIT 中的信任关系。该项目旨在通过提出 HAIT 信任研究模型来促进开发有效的 HAIT。
摘要虽然近年来人工智能研究领域受益于日益复杂的机器学习技术,但由此产生的系统却缺乏透明度和可理解性,尤其是对于最终用户而言。在本文中,我们探讨了将虚拟代理纳入可解释人工智能 (XAI) 设计对最终用户感知信任的影响。为此,我们基于一个简单的语音识别系统进行了关键字分类用户研究。通过这项实验,我们发现虚拟代理的集成可以提高用户对 XAI 系统的信任度。此外,我们发现用户的信任在很大程度上取决于用户代理界面设计中使用的模式。我们的研究结果显示出一种线性趋势,其中代理的视觉存在与语音输出相结合比单独的文本输出或语音输出产生更大的信任度。此外,我们分析了参与者对所呈现的 XAI 可视化的反馈。我们发现,增加虚拟代理的人性化和与虚拟代理的交互是如何改进所提出的 XAI 交互设计的两个最常见的提及点。基于这些结果,我们讨论了当前的局限性以及在 XAI 领域进一步研究的有趣主题。此外,我们为未来的项目提出了 XAI 系统中虚拟代理的设计建议。