随着可穿戴设备(例如智能耳机、眼镜)越来越倾向于面部,人们越来越需要促进与这些设备的直观交互。当前的传感技术已经可以检测到许多基于嘴部的手势;但是,用户对这些手势的偏好尚未完全了解。在本文中,我们研究了基于嘴部的微手势的设计空间和可用性。我们首先进行了头脑风暴会议(N=16),并编制了一组广泛的 86 个用户定义的手势。然后,通过在线调查(N=50),我们评估了手势集的生理和心理需求,并确定了 14 个可以轻松自然地执行的手势子集。最后,我们进行了一项远程绿野仙踪可用性研究(N=11),将手势映射到坐姿和走姿环境下的各种日常智能手机操作。通过这些研究,我们开发了嘴部手势的分类法,最终确定了常见应用程序的实用手势集,并为未来基于嘴部的手势交互提供了设计指南。
本研究旨在更好地理解人机自主团队中的信任,发现信任与团队绩效相关。在一项实验中,研究人员采用了“绿野仙踪”方法,模拟了在遥控飞机系统环境中作为团队成员的自主代理。这项研究的具体重点是人机自主团队的团队绩效和团队社交行为(特别是信任)。结果表明:1)低绩效团队对自主代理的信任程度低于中绩效和高绩效团队;2)随着时间的推移,低绩效、中绩效和高绩效团队对自主代理的信任度都在下降;3)除了人类团队成员对自主代理的信任度较低外,低绩效和中绩效团队也对其人类团队成员的信任度较低。1. 简介近年来,人机交互已在众多研究界得到研究,包括人为因素、信息科学和计算机科学,以及多个不同的焦点(沟通、意识、信任等)。鉴于技术
9 研究方法 126 9.1 定义研究问题和方法 128 9.1.1 您的研究是探索性的还是验证性的?129 9.1.2 您正在建立相关性还是因果关系?130 9.2 在定性、定量和混合方法中进行选择 131 9.2.1 用户研究 132 9.2.2 系统研究 133 9.2.3 观察性研究 134 9.2.4 人种学研究 136 9.2.5 会话分析 138 9.2.6 众包研究 139 9.2.7 单一主题研究 140 9.3 选择研究参与者和研究设计 141 9.3.1 研究设计 142 9.4 定义交互背景 144 9.4.1 研究地点 144 9.4.2 HRI 的时间背景 145 9.4.3 HRI 中的社会互动单位 146 9.5 为您的研究选择机器人 148 9.6 设置交互模式149 9.6.1 绿野仙踪 149 9.6.2 真实与模拟交互 150 9.7 选择适当的 HRI 措施 150 9.8 研究标准 152
本论文研究了不同的用户界面 (UI) 设计如何影响用户对生成式人工智能 (AI) 工具的信任。我们进行了一项实验,采用绿野仙踪方法测试了三种具有不同 ChatGPT UI 变体的工具的信任级别。来自不同学科的九名志愿大学生参加了实验。我们使用问卷来评估参与者在与每种工具交互后以及与所有工具交互后的信任感知。结果表明,参与者之间的信任水平受到生成式 AI 的 UI 设计的影响,尤其是头像设计和文本字体。尽管共享相同的文本源,但大多数参与者认为 ChatGPT 与其他工具相比最值得信赖。结果还强调了对话界面在与生成式 AI 系统建立信任方面的重要性,参与者表示更喜欢促进自然和引人入胜的交互的界面。该研究强调了 UI 对信任的重大影响,旨在鼓励对生成式 AI 更加谨慎的信任。
9 研究方法 126 9.1 确定研究问题和方法 128 9.1.1 你的研究是探索性的还是验证性的? 129 9.1.2 你是在建立相关性还是因果关系? 130 9.2 在定性、定量和混合方法中进行选择 131 9.2.1 用户研究 132 9.2.2 系统研究 133 9.2.3 观察性研究 134 9.2.4 人种学研究 136 9.2.5 会话分析 138 9.2.6 众包研究 139 9.2.7 单一主题研究 140 9.3 选择研究参与者和研究设计 141 9.3.1 研究设计 142 9.4 定义交互背景 144 9.4.1 研究地点 144 9.4.2 HRI 的时间背景 145 9.4.3 HRI 中的社会互动单位 146 9.5 为你的研究选择机器人 148 9.6 设置交互模式 149 9.6.1 绿野仙踪 149 9.6.2 真实与模拟交互 150 9.7 选择适当的 HRI 测量方法 150 9.8 研究标准 152
人工智能 (AI) 的进步预示着未来的团队将由人类和智能机器(如机器人或虚拟代理)组成。为了使人机协作团队 (HAT) 取得成功,人类团队成员需要接受他们的新 AI 同伴。在本研究中,我们借鉴了人类新人接受度的三部分模型,该模型包括三个部分:反思、知识利用和心理接受。我们假设社会感知的两个方面——热情和能力——是人类接受新 AI 队友的关键预测因素。研究 1 使用视频短片设计,参与者想象将八个 AI 队友中的一位添加到参考团队中。研究 2 在实验室团队中利用了绿野仙踪方法。除了测试感知温暖和能力对接受性成分的影响外,研究 2 还探讨了接受性成分对感知 HAT 可行性的影响。虽然两项研究都发现感知温暖和能力会影响接受性,但我们发现能力对于知识利用和心理接受尤为重要。此外,研究 2 的结果表明,心理接受与感知 HAT 可行性呈正相关。讨论了对未来 AI 队友社会认知研究的启示。
人们相信,人工智能推动的技术飞速发展将加强人类与人工智能作为团队伙伴的合作。成功的合作需要合作伙伴相互了解并了解任务。这种人机共同学习可以通过呈现使合作伙伴能够分享知识和经验的情况来实现。在本文中,我们描述了任务环境和研究共同学习的程序的开发和实施。更具体地说,我们设计了特定的交互序列,旨在启动和促进共同学习过程。在一项实验中评估了这些干预措施对学习的影响,该实验使用简化的虚拟城市搜救任务,供人机团队使用。人类参与者与绿野仙踪(即实验者的同伙,执行与基于本体的人工智能模型一致的机器人行为)合作执行了受害者救援和疏散任务。设计的交互序列,即学习设计模式 (LDP),旨在实现共同学习。结果表明,LDP 有助于人类理解和认识他们的机器人伙伴和团队合作。对协作流畅度和团队绩效均未发现影响。结果用于讨论共同学习的重要性、为研究这一现象设计人机团队任务的挑战以及共同学习可能成功的条件。这项研究有助于我们了解人类如何与人工智能伙伴一起学习以及从人工智能伙伴那里学习,我们设计有意识学习 (LDP) 的提议为未来人机团队的应用提供了方向。
随着对话式人工智能 (AI) 代理的出现,了解影响用户使用这些代理的体验的机制非常重要。在本文中,我们研究了设计师工具包中最常用的工具之一:概念隐喻。隐喻可以将代理呈现为一个爱开玩笑的青少年、一个蹒跚学步的幼儿或一个经验丰富的管家。隐喻的选择会如何影响我们对 AI 代理的体验?我们沿着温暖和能力的维度(心理学理论将其定义为人类社会感知变化的主要轴)抽样了一组隐喻,进行了一项研究 (N = 260),其中我们操纵绿野仙踪对话代理的隐喻,但不操纵其行为。体验结束后,我们会对参与者进行调查,了解他们使用代理的意图、与代理合作的愿望以及代理的可用性。与设计师目前使用高能力隐喻来描述人工智能产品的倾向相反,我们发现,表示低能力的隐喻比表示高能力的隐喻能更好地评价代理。尽管高能力和低能力代理都具有相同的人类水平表现,并且巫师对条件视而不见,但这种影响仍然存在。第二项研究证实,随着隐喻所投射的能力的增加,采用意愿会迅速下降。在第三项研究中,我们评估了隐喻选择对潜在用户尝试系统的愿望的影响,发现用户被投射出更高能力和热情的系统所吸引。这些结果表明,投射能力可能有助于吸引新用户,但除非代理能够用较低能力的隐喻快速纠正,否则这些用户可能会放弃代理。最后,我们进行了回顾性分析,发现隐喻和用户对过去的对话代理(如 Xiaoice、Replika、Woebot、Mitsuku 和 Tay)的态度之间存在相似的模式。