HART TG 关注的主题包括三个要素:(a)以人为本,(b)包括人工智能或机器人,或两者兼而有之——人工智能大致代表软件和算法,而机器人代表物理体现的人工智能代理;(c)涉及团队合作——人机交互和协作旨在实现共同目标。尽管如此,HART TG 也会考虑相关主题和论文提交。同时,一些包含这三个要素的工作也可能适合另一个具有特定重点的 TG,作者可以选择将哪个 TG 提交作为 HFES 年度会议的主要和次要领域。具体感兴趣的领域包括但不限于以下内容:
人机协作的安全性和效率通常取决于人类如何适当地校准对人工智能代理的信任。过度信任自主系统有时会导致严重的安全问题。尽管许多研究都关注系统透明度在保持适当信任校准方面的重要性,但在检测和缓解不当信任校准方面的研究仍然非常有限。为了填补这些研究空白,我们提出了一种自适应信任校准方法,该方法包括一个通过监控用户的依赖行为来检测不适当校准状态的框架和称为“信任校准线索”的认知线索,以提示用户重新启动信任校准。我们使用无人机模拟器在在线实验中评估了我们的框架和四种类型的信任校准线索。共有 116 名参与者使用无人机的自动检查功能执行了坑洼检查任务,其可靠性可能因天气条件而波动。参与者需要决定是依靠自动检查还是手动进行检查。结果表明,自适应地呈现简单提示可以显著促进过度信任期间的信任校准。
过去的研究努力了解哪些技术因素可以改善对人工智能的信任行为(例如透明度;[11],[12])。然而,人类是否信任他们的人工智能队友不仅取决于人工智能的特征,还取决于人类的特征。因此,研究表明,个人对同一人工智能的可信度感知各不相同 [3]。团队成员对人工智能团队成员的理解(例如人工智能素养;[13])、对人工智能特征的感知(例如有用性;[14])或与此类技术互动的经验 [7] 可能有所不同,从而影响他们的信任。此外,个体差异(例如信任倾向;[3])或情境变化 [15] 可能会进一步导致团队成员对人工智能的信任以及随后的信任行为(例如是否依赖人工智能;[16])之间的差异。总而言之,人类根据个人特有的各种因素来评估他们对人工智能团队成员的信任。因此,我们提出:
随着人工智能 (AI) 越来越多地被用作商业战略的重要组成部分,在人类和 AI 队友之间建立信任仍然是一个关键问题。“我们同舟共济”项目重点介绍了当前关于人机团队 (HAIT) 信任的理论,并提出了一个研究模型,该模型整合了工业和组织心理学、人为因素工程、人机交互和计算机科学的见解。提出的模型表明,在 HAIT 中,信任涉及多个参与者,对团队成功至关重要。我们提出了三个主要命题来理解 HAIT 协作中的信任,重点关注人类和 AI 队友之间人际关系中的信任度和信任度反应。我们进一步指出,个人、技术和环境因素会影响 HAIT 中的信任关系。该项目旨在通过提出 HAIT 信任研究模型来促进开发有效的 HAIT。
如果不做出改变,就无法恢复控制感。在信息系统文献中,这种变化通常被研究为使技术适应用户的需求或使自我适应技术。然而,这种适应性视角并不能完全解释与人工智能环境相关的变化。就前者而言,与传统信息系统不同,人工智能具有动态规则和启发式性质,几乎不允许通过定制和个性化对工件进行确定性更改。至于后一种适应,人工智能工件的代理性质以及它所取代的任务的复杂性增加表明人类工作发生了根本性变化,不仅改变了任务,还改变了工作设计。因此,人类适应技术的被动视角已经不够了。相反,更相关的是研究如何在人与人工智能共享任务的背景下调整工作设计以更好地满足人类需求 [17]。
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.
摘要 本文综合了当前理解人机交互的理论尝试,并介绍了七个前提,以理解我们日益强大、普及和可立即访问的算法所带来的新兴动态。希望这七个前提能够构建人机共创的社会理论。关注人机共创旨在强调两个因素。首先,我们的机器学习系统是社会化的。其次,人类思维和人工智能系统的共同进化性质,因为智能设备构成了我们认知支架不可或缺的一部分,从而塑造了我们对世界和自己的感知。这七个前提包括:社会结构的首要地位;人类对自由和自主的渴望;人工智能系统将成为我们认知/情感支架不可分割的一部分,并可以改变我们的自我理解;人类繁荣的哲学和人文基础作为人机交互的指导;心灵海绵信息过滤过程;价值观在人机交互中如何变化和出现的文化适应过程;人与人、人与自然、人与机交互的重叠维恩图。本文最后讨论了人类在与社会化机器纠缠中的能动性以及笛卡尔代理对心灵的看法的虚幻性。
我们描述了一类称为决策导向对话的任务,在这些任务中,大型语言模型 (LM) 等 AI 助手必须通过自然语言与一个或多个人类合作,以帮助他们做出复杂的决策。我们将用户每天面临的决策的三个领域形式化:(1)选择会议论文的审稿人任务,(2)规划某个城市的多步骤行程,(3)为朋友团体协商旅行计划。在每种情况下,AI 助手和用户都具有不同的能力,他们必须将这些能力结合起来才能做出最佳决策:助手可以访问和处理大量信息,而用户则具有系统外部的偏好和约束。对于每个任务,我们构建了一个对话环境,代理会根据他们做出的最终决策的质量获得奖励。我们在自我对弈和与人类合作中对 LM 进行了评估,发现它们与人类助手相比存在不足,尽管对话时间较长,但获得的奖励要低得多。我们强调了模型在决策导向对话中面临的许多挑战,从目标导向行为到推理和优化,并将我们的环境发布为未来工作的试验台。
近年来,由于各个学科的在线文本大量产生,机器翻译系统的重要性日益增加。事实证明,传统的翻译方法不足以满足全球翻译需求。虽然翻译工具在处理不同学科和文本类型方面非常出色,但它们的可用性和可靠性面临相当大的争议,尤其是应用于文学文本时。因此,本研究旨在探索人工智能 (AI) 翻译工具(例如 ChatGPT)对文学文本翻译和回译的影响。该研究采用定性方法中的实验模型,以翻译测试为主要研究工具。伊玛目穆罕默德伊本沙特伊斯兰大学 (IMSIU) 的 80 名英语专业学生被随机抽取并分成四组:两个对照组和两个实验组。要求学生翻译和回译一篇英文短篇小说,并通过各种比较对测试中的定性数据进行了分析。对于统计分析,采用独立样本 t 检验来比较两个独立组。研究结果显示,使用人工智能工具的学生能够比使用传统方法的学生提供更好的翻译和回译,回译的表现略好。
人们在各个领域都考虑人工智能系统的建议,从识别医学图像中的肿瘤到决定哪双鞋与某套衣服搭配起来好看。决策过程隐含着对人工智能系统专业知识的感知。在本文中,我们研究了人们如何信任和依赖人工智能助手,人工智能助手的专业水平与人不同,从完全重叠的专业到完美互补的专业。通过一系列受控的在线实验室研究,参与者在人工智能助手的帮助下识别物体,我们证明参与者能够感知助手在同一任务中是专家还是非专家,并调整他们对人工智能的依赖,以提高团队绩效。我们还证明,通过解释文本的语言属性传达专业知识是有效的,其中接受语言会增加依赖,而疏远语言会减少对人工智能的依赖。