数字孪生 (DT) 是最新的使能技术之一,它作为数据密集型网络计算解决方案出现在多个领域——从工业 4.0 到互联健康(Pires 等人,2019 年;Bagaria 等人,2020 年;Juarez 等人,2021 年;Phanden 等人,2021 年)。DT 作为一个虚拟系统,用于复制、监控、预测和改进物理系统(物理孪生 (PT))的流程和特性,与其 DT 实时连接(Grieves 和 Vickers,2017 年;Kaur 等人,2020 年;Mourtzis 等人,2021 年;Volkov 等人,2021 年)。这种技术基于物联网 (IoT) 和机器学习 (Kaur et al., 2020) 等领域的进步,提出了应对人机交互 (HRI) (Pairet et al., 2019) 领域等复杂系统问题的新方法。本立场文件旨在提出一种物理-数字孪生方法,以根据神经人体工程学的跨学科视角 (Parasuraman, 2003; Frederic et al., 2020) 改善对 HRI 背景下 PT 的理解和管理。
人工智能技术在军事决策过程中的普及似乎正在增加。起初,人工智能在军事领域的应用主要与武器系统有关,这些武器系统通常被称为自主武器系统 (AWS),可以在无需进一步人工干预的情况下识别、跟踪和攻击目标 (红十字国际委员会 [ICRC] 2021)。世界各地的军队已经使用了武器系统,包括一些巡飞弹,这些武器系统结合了人工智能技术来促进目标识别,通常依赖于计算机视觉技术 (Boulanin 和 Verbruggen 2017;Bode 和 Watts 2023)。虽然巡飞弹通常在人类批准下操作,但似乎有可能在没有人为干预的情况下动态施加武力。事实上,俄罗斯在乌克兰战争的各种报道表明,乌克兰军队在作战的最后阶段使用巡飞弹,在未经人类批准的情况下释放武力 (Hambling 2023, 2024)。这些发展有力地强调了人们长期以来日益增长的担忧,即在使用基于人工智能的系统时,人类在武力决策中所起的作用正在逐渐减弱。
摘要 个人心理相关因素可能预测人们对人工智能 (AI) 的接受程度,本文对此进行了研究。研究 1 报告了对人工智能总体态度量表 (GAAIS) 的确认性验证,此前已在其他地方进行了初步验证。验证性因子分析证实了双因素结构(积极、消极),并显示出与相关量表的良好收敛和发散效度。研究 2 测试了心理因素(五大人格特质、企业不信任和一般信任)是否能预测对 AI 的态度。内向者总体上对 AI 的态度更为积极,可能是因为他们欣赏算法。尽责性和随和性与对 AI 消极方面的宽容态度有关。企业不信任程度越高,总体上对 AI 的态度就越消极,而一般信任程度越高,对 AI 的好处的看法就越积极。普遍信任与企业不信任之间的分离可能反映了公众对人工智能利弊的归因。结果与理论和先前的发现相关。
社区组织在利用定性数据分析或意义建构的力量来理解其选民提出的不同观点和需求方面面临挑战。意义建构最耗时且乏味的部分之一是定性编码,即在大量非结构化的社区输入语料库中识别主题的过程。定性编码的挑战是实现高编码者之间的可靠性,尤其是在专家和初学者意义建构者之间。在这项工作中,我们介绍了 SenseMate,这是一种旨在帮助定性编码的新型人机交互系统。SenseMate 利用理性提取模型,这是一种新的机器学习策略来半自动化意义建构,它可以产生主题建议和人类可解释的解释。这些模型是在波士顿人生活经历的数据集上进行训练的,该数据集由专家意义建构者对主题进行了注释。我们通过一个以人为本的迭代设计过程将理性提取模型集成到 SenseMate 中,该过程围绕从广泛的文献综述中得出的四个关键设计原则展开。设计过程包括三次迭代,并不断得到来自社区组织的七名人员的反馈。通过一项涉及 180 名新手感知者的在线实验,我们旨在确定人工智能生成的建议和原理是否会减少编码时间、提高编码者之间的可靠性(即 Cohen 的 kappa 值),并尽量减少新手和专家编码决策之间的差异(即参与者答案的 F 分数与专家金标签的比较)。我们发现,虽然模型建议和解释使每个分析单位的编码时间增加了 49 秒,但它们使编码者之间的可靠性提高了 29%,编码 F 分数提高了 10%。关于 SenseMate 设计的有效性,参与者报告说该平台通常易于使用。总之,Sensemate (1) 是为没有技术背景的初学者感知者构建的,这是先前工作不关注的用户群,(2) 实现原理提取模型来推荐主题并生成解释,这比大型语言模型更具优势
在本文中,我们认为,研究社会互动和发展联合行动中的“自主感”有助于确定要在人工智能系统中实施的相关解释的内容,以使其“可解释”。自动化系统以及更广泛的人工智能 (AI) 被引入到许多领域,深刻地改变了人类活动的性质,以及主体对自己的行为及其后果的主观体验——这种体验通常被称为自主感。我们建议研究支持自动化对个人自主感影响的实证证据,从而研究其对操作员绩效、系统可解释性和可接受性等多种指标的影响。由于人工智能的一些关键特性,它在人工智能领域占有特殊地位。我们认为,这种地位促使我们从人与人关系的角度重新审视人与人工智能的互动。我们研究人类社会互动中的联合行动,以推断在社会背景下发展可靠的代理意识需要哪些关键特征,并提出这种框架可以帮助定义什么是好的解释。最后,我们提出了改善人机交互的可能方向,特别是恢复人类操作员的代理意识,提高他们对人工智能代理所做决策的信心,并提高此类代理的可接受性。
AI 有望在我们生活的许多领域带来革命。过去几年,我们观察到机器学习 (ML) 算法取得了重大进展,并催生出令人印象深刻的系统,例如图像理解和自然语言识别。数据被大规模收集,可用数据集(公共或公司内部)的数量正在迅速增长,因为许多人都了解数据的基本价值。然而,许多应用程序并不关注人,它们不是以人为本的。下面,我们将讨论为什么先进的 AI 和 ML 算法和技术是不够的,以及为什么这不足以创造 AI 革命。为了取得对人类、个人和社会都有意义的真正进步,我们必须了解如何利用 AI 的新潜力和能力从根本上改变交互系统的设计。
人类对人工智能的痴迷源于对“能够自我感知、推理、行动和学习的机器”的痴迷。这一根本目标导致了方法、技术和工具的开发,使系统能够在有限的环境中有效地感知、推理、行动和学习。即使初步成果有限,人工智能的抱负和框架显然是长期的努力。例如,机器人技术取得了令人瞩目的进步。最近的例子是“好奇号”,它是 NASA 目前正在探索火星的机器人。人机交互更注重新技术的可用性,促进创造力和创新。人机交互一直以来都有短期目标。我们应该注意到,如果没有基于坚实的人机交互概念和原则的用户界面,更具体地说是关于其活动规划的用户界面,就无法从地球执行远程好奇号操作。换句话说,NASA 地面操作员必须对如何使用好奇号的仪器以及各种预定活动需要哪些资源有最好的态势感知 2 。
人工智能 (AI) 与医疗保健通信的整合发展迅速,这得益于大型语言模型 (LLM)(例如聊天生成预训练转换器 (ChatGPT))的进步。本文献综述探讨了人工智能在医患互动中的作用,特别关注其通过弥合语言障碍、总结复杂的医疗数据和提供富有同理心的回应来增强沟通的能力。人工智能的优势在于它能够提供易于理解、简洁且医学上准确的信息。研究表明,人工智能在某些沟通方面(例如同理心和清晰度)可以胜过人类医生,而 ChatGPT 和医学路径语言模型 (Med-PaLM) 等模型在这些领域表现出很高的有效性。然而,仍然存在重大挑战,包括偶尔出现的不准确和“幻觉”,即人工智能生成的内容不相关或医学上不准确。这些限制凸显了人工智能算法需要不断改进,以确保敏感医疗环境中的可靠性和一致性。该评论强调了人工智能作为健康传播变革工具的潜力,同时倡导进一步研究和政策制定,以降低风险并加强人工智能与临床实践的整合。
摘要。人工智能系统越来越多地应用于我们生活的各个方面,从平凡的日常工作到敏感的决策,甚至是创造性的任务。因此,需要适当的信任水平,以便用户知道何时依赖系统,何时推翻它。虽然研究已经广泛关注如何培养人机交互中的信任,但缺乏人机信任的标准化程序,使得解释结果和跨研究比较变得困难。因此,对人与人工智能之间信任的基本理解仍然支离破碎。本次研讨会邀请研究人员重新审视现有方法,并努力建立一个研究人工智能信任的标准化框架,以回答以下悬而未决的问题:(1)人与人之间的信任意味着什么
• 您的姓名 • 您的部门 • 您正在处理的作业以及您遇到的步骤 • 您为解决问题所做的工作 • 如果问题与模拟器有关,请将整个项目压缩并通过电子邮件发送,清楚标明您需要帮助的作业,并附上简要说明。以下是简要说明的示例:“ Cherner 博士,我在处理作业 #2 的第 3 步时遇到了问题,它给出了错误。我已多次运行代码,并确保语法正确。我的文件已压缩到一个文件夹中并附加。谢谢。” • 请不要快速连续发送多封电子邮件。讲师可能会要求学生将几封电子邮件改写为一封电子邮件,只回答一个问题。 • 发送电子邮件后,请继续完成作业。发送电子邮件并不能成为学生停止继续的借口。完成其他作业,或继续完成您遇到问题的作业。如果您解决了问题,请发送电子邮件给讲师。 • 任何时候都要求遵守正确的网络礼仪和尊重他人的行为。