提高我们对人类如何看待人工智能队友的理解,是我们对人机团队进行全面理解的重要基础。通过扩展认知科学的相关工作,我们提出了一个基于项目反应理论的框架来对这些感知进行建模。我们将这个框架应用于现实世界的实验,其中每个参与者与另一个人或人工智能代理一起在问答环境中工作,反复评估其队友的表现。利用这些实验数据,我们展示了我们的框架在测试人们对人工智能代理和其他人的看法的研究问题中的用途。我们将人工智能队友的心理模型与人类队友的心理模型进行对比,以描述这些心理模型的维度、它们随时间的演变以及参与者自身自我感知的影响。我们的结果表明,人们期望人工智能代理的表现平均而言明显优于其他人类的表现,并且在不同类型的问题中差异较小。最后,我们讨论了这些发现对人机交互的影响。
相互依存地朝着共同目标前进。我们将此实体称为 HRT。然而,即使在 USAR 环境中引入机器人技术,许多 USAR 任务仍然依赖于沟通能力有限或仅能向人类操作员显示简单机器人状态元素的机器人。尽管机器人状态信息很重要,但这种类型的沟通不需要 HRT 进行深入交流,这使得人类操作员更多地扮演监控者或监督者的角色,而不是队友,团队互动仅限于询问机器人队友或在机器人队友的限制范围内工作。因此,USAR 机器人有限或缺乏沟通能力可能会阻碍 HRT 的有效性,导致机器人被视为依赖关系中的工具,而不是相互依赖关系中的队友。这种客观性虽然在某些决策环境下(例如对工具的信任进行适当校准)很重要,但也可能阻碍人类同行与能力日益增强的机器人建立信任和互动团队认知的基础。信任和互动团队认知是高效团队的重要组成部分(Cooke 等人,2013;Schaefer,2016)。在将机器人融入 HRT 时,由于机器人自动化故障的必然性,人们更倾向于从团队合作的角度而不是工具的角度来考虑(Honig & Oron-Gilad,2021)。意外的机器人故障——即使这些故障可以归因于环境因素而非技术因素——通常会导致人类信任度下降,并可能导致机器人队友被视为不可预测或不可靠。这种性质的机器人故障表明,需要找到解决方案来解决半自主机器人队友的缺点,以更好地发挥他们作为有用队友的潜力。考虑到这一点,本研究的目的是探索机器人的解释和透明度如何影响 HRT 中的人类信任和态势感知,并量化模拟环境中 HRT 沟通的最佳模式。
人工智能技术的快速发展,使得人工智能代理与人类在各种情境中形成了更加紧密、更加共生的互动。最近才受到广泛关注的情境之一是人机协作,其中人工智能代理操作的是相互依赖的队友,而不是工具。这些团队在创建和维护共享的团队理解方面面临着独特的挑战,特别是在共享团队道德准则方面。由于团队的组成、目标和环境会发生变化,因此人工智能队友必须能够与人类队友一起更新其道德准则。本文提出了一个由两部分组成的模型,以便在人机协作团队中为人工智能队友实施动态道德准则。该模型的第一部分提出,道德准则除了团队角色外,还可用于告知自适应人工智能代理何时以及如何调整其自主性水平。该模型的第二部分解释了如何根据人工智能代理对团队互动的迭代观察不断更新道德准则。该模型为以人为本的计算社区做出了多项贡献,因为团队认知水平较高的团队表现出更高的绩效和寿命。更重要的是,它提出了一种在人机团队中更合乎道德地使用人工智能队友的模型,该模型适用于各种人机团队环境,并为未来的创新留出了空间。
2023 年 6 月 13 日 — 必须确保让队友知道我们在这里倾听他们的担忧。 2. 我的大门随时敞开,可以与任何士兵讨论问题,...
r ind 2 {0。5,0。8,1}:由您的队友评为您的贡献; 0.5(或0.8)意味着您的贡献小于预期工作量的20%(或50%)。
摘要 将人工智能 (AI) 融入人类团队,形成人机协作团队 (HAT),是一个快速发展的领域。本概述考察了团队组合和动态的复杂性、对 AI 队友的信任以及 HAT 内的共享认知。添加 AI 队友通常会减少协调、沟通和信任。此外,由于最初对能力的估计过高,对 AI 的信任往往会随着时间的推移而下降,从而损害团队合作。尽管 AI 有可能在国际象棋和医学等领域提高表现,但由于团队认知不佳和相互理解不足,HAT 经常表现不佳。未来的研究必须通过计算机科学和心理学之间的跨学科合作来解决这些问题,并推进强大的理论框架,以充分发挥人机协作的潜力。
自主系统的进步和实施与人们对其使用所产生的伦理问题日益关注不谋而合。随着自主性在需要考虑伦理问题的情境中填补了队友的角色,这一点变得越来越重要。随着人工智能队友 (AT) 进入这些角色,需要进行研究来探索 AT 的道德规范如何影响人类的信任。当前的研究提出了两项研究,探讨 AT 的道德或不道德行为如何影响对该队友的信任。在研究 1 中,参与者对 AT 建议违反或遵守一套伦理原则的行动场景做出了反应。结果表明,道德认知和信任会受到伦理违规行为的影响,但只有伦理规范取决于伦理违规的类型。研究 2 中的参与者在与犯有伦理违规行为并试图修复信任(道歉或否认)的模拟 AT 执行团队任务后完成了焦点小组访谈。焦点小组的回应表明,违反道德规范的行为恶化了人们对 AT 的看法并降低了信任度,但仍然可以信任它执行任务。AT 的道歉和否认并没有修复受损的信任。研究结果表明信任和道德规范之间存在微妙的关系,需要进一步研究违反道德规范后的信任修复策略。
人工智能 (AI) 的进步预示着未来的团队将由人类和智能机器(如机器人或虚拟代理)组成。为了使人机协作团队 (HAT) 取得成功,人类团队成员需要接受他们的新 AI 同伴。在本研究中,我们借鉴了人类新人接受度的三部分模型,该模型包括三个部分:反思、知识利用和心理接受。我们假设社会感知的两个方面——热情和能力——是人类接受新 AI 队友的关键预测因素。研究 1 使用视频短片设计,参与者想象将八个 AI 队友中的一位添加到参考团队中。研究 2 在实验室团队中利用了绿野仙踪方法。除了测试感知温暖和能力对接受性成分的影响外,研究 2 还探讨了接受性成分对感知 HAT 可行性的影响。虽然两项研究都发现感知温暖和能力会影响接受性,但我们发现能力对于知识利用和心理接受尤为重要。此外,研究 2 的结果表明,心理接受与感知 HAT 可行性呈正相关。讨论了对未来 AI 队友社会认知研究的启示。
您将与队友一起完成项目的政策备忘录部分。您将有课堂时间来为每份备忘录制定工作计划。团队合作可能是一项挑战,尤其是在日程繁忙的情况下。我希望每个人都能按比例为最终项目做出贡献,但承认不同的团队可能会有所不同。为了了解您的团队如何运作,在提交每份备忘录后,您还将提交一份调查,您将自我评分并简要描述您对备忘录的贡献。这将通过画布调查提交。调查将询问:“您对获得的成绩有多大信心反映您的个人努力和贡献?”,“您能多好地回答有关备忘录内容的个人问题?”,“您对备忘录的哪些贡献最自豪?”“完成备忘录后,您是否有任何未解决的知识空白,希望在课堂上解决?”如果团队成员之间出现问题,请在与您的队友讨论挑战后联系斯科特博士。