本文档中提出的许多HSI概念对于许多系统利益相关者也至关重要。开发人员,测试人员,收购线索,执行级决策者和现场指挥官都需要不同水平的系统理解(即心理模型)来完成各自的工作。机上仪器可能会提供信息,以帮助战士保持情境意识,但其他利益相关者将与该工具有不同的需求。细节会有所不同,但是测试人员应该记住,包括自己在内的许多利益相关者都必须能够有效与系统互动。
机器学习的最新进展导致人们对可解释人工智能(xAI)的兴趣日益浓厚,它使人类能够洞察机器学习模型的决策。尽管最近人们对 xAI 技术产生了浓厚的兴趣,但它在人机协作中的实用性尚未得到体现。重要的是,xAI 有望增强团队态势感知(SA)和共享心理模型开发,这是有效人机团队的关键特征。快速开发这种心理模型对于临时的人机协作尤为重要,因为在这种协作中,代理并不事先了解其他人的决策策略。在本文中,我们提出了两个新颖的以人为主体的实验,量化了在人机协作场景中部署 xAI 技术的好处。首先,我们表明 xAI 技术可以支持 SA(p < 0.05)。其次,我们研究通过协作 AI 策略抽象诱导的不同 SA 级别如何影响临时的人机协作性能。重要的是,我们发现 xAI 的好处并不是普遍的,因为它在很大程度上依赖于人机团队的组成。新手受益于 xAI 提供的更高 SA(p < 0.05),但容易受到认知开销的影响(p < 0.05)。另一方面,随着基于 xAI 的支持的增加,专家的表现会下降(p < 0.05),这表明关注 xAI 的成本超过了通过提供额外信息来增强 SA 所获得的好处。我们的结果表明,研究人员必须通过仔细考虑人机团队组成以及 xAI 方法如何增强 SA,在正确的场景中精心设计和部署正确的 xAI 技术。
摘要 项目第二阶段扩展了数据收集和分析程序,以开发航路空中交通管制 (ATC) 专业知识和技能发展模型。通过记录五位有工作超负荷问题的专家的动态模拟器 (DYSIM) 表现来收集新数据。对专家管制员进行了深入采访,以阐述和验证心理模型。分析了联邦航空管理局关于操作错误的数据。进行了扩展的文献综述,以将研究结果与现有文献相结合。开发了一个精心设计和完善的心理模型和任务分解。心理模型的结构既暗示了管制员用于组织 ATC 知识的概念框架,也暗示了在工作中应用知识的策略。任务分解导致列出并验证了 12 项任务。策略使用分析表明,专家倾向于使用更少的策略、更多种类的不同策略、更多的工作量管理策略以及随上下文变化的策略使用。开发了关键 ATC 构造之间相互关系的工作模型。修订后的工作超负荷关键线索列表表明,参与者认为焦虑和沟通错误是超负荷情况正在形成的最重要线索。在教学内容、排序、媒体传递和培训环境方面确定了培训影响。(附录包括以下内容:57 个参考文献列表、术语和缩略词词汇表、策略词汇表、验证研究时间表、策略列表和验证访谈、DYSIM 超负荷问题解决的回顾性协议、工作超负荷问卷和 DYSIM 超负荷问题解决的错误列表。)(YLB)
AV的低水平系统,例如方向盘和踏板,ROS可以通过标准化命令来管理各种车辆的能力,包括尺寸,宽度和类型的不同车辆以及各种舰队,包括私人汽车,班车和卡车。这种方法简化了适应过程并简化了学习曲线,因为在不同的远程手工车辆之间过渡时,不需要ROS开发新的心理模型[63]。第三,Tele-satherance在安全性方面提供了重要的增强。来自美国运输部的数据表明,在美国,人为错误是94%的事故[30]。Waymo的最新发现进一步强调了自动驾驶汽车
态势感知 (SA) 可以定义为对一定时间和空间范围内环境元素的感知、对其含义的理解以及对其近期状态的预测。因此,人机界面最重要的人为因素问题是操作员保持态势/系统意识的能力。人机界面并不总是直观的,这是一个既定事实。非直观的“不透明”界面会导致操作复杂性,这通常会迫使操作员分配更多注意力以保持对情况/系统状态的充分心理模型。这成为态势感知丧失、系统性能下降以及最终导致人为错误和安全故障的温床。
会议。在这种情况下,该人可能会使用连接到不同办公室或实验室的计算机网络的复印机 / 打印机。该人通过计算机访问复印机 / 打印机来打印文档。该人必须了解如何访问复印机 / 打印机,知道复印机 / 打印机的打印功能,并知道计算机访问复印机 / 打印机的能力。为了使该人成为该系统的一部分,必须有一个复杂的系统心理模型,包括不同系统部分的物理位置及其系统状态。在这个例子中,该人是打印系统的一部分,是机器的操作员。如果没有人发出打印命令,机器就无法打印文档。
AV的低水平系统,例如方向盘和踏板,ROS可以通过标准化命令来管理各种车辆的能力,包括尺寸,宽度和类型的不同车辆以及各种舰队,包括私人汽车,班车和卡车。这种方法简化了适应过程并简化了学习曲线,因为在不同的远程手工车辆之间过渡时,不需要ROS开发新的心理模型[63]。第三,Tele-satherance在安全性方面提供了重要的增强。来自美国运输部的数据表明,在美国,人为错误是94%的事故[30]。Waymo的最新发现进一步强调了自动驾驶汽车
理解某件事意味着什么?这个问题长期以来一直困扰着哲学家、认知科学家和教育家,他们几乎总是与人类和其他动物有关。然而,随着最近大规模人工智能系统的兴起——尤其是所谓的大型语言模型——人工智能界出现了一场激烈的争论,即现在是否可以说机器理解自然语言,从而理解语言可以描述的物理和社会情况。这场争论不仅仅是学术性的;机器理解我们世界的程度和方式,对我们能多大程度地信任它们驾驶汽车、诊断疾病、照顾老人、教育儿童以及更广泛地在影响人类的任务中表现出稳健和透明的行为有着真正的利害关系。此外,当前的争论表明,在如何思考智能系统的理解方面存在着有趣的分歧,特别是依赖统计相关性的心理模型和依赖因果机制的心理模型之间的对比。直到最近,人工智能研究界对机器理解达成了普遍共识:虽然人工智能系统在许多特定任务中表现出看似智能的行为,但它们并不像人类那样理解它们处理的数据。面部识别软件不理解面部是身体的一部分,不理解面部表情在社交互动中的作用,“面对”不愉快的情况意味着什么,也不理解人类对面部概念化的其他无数方式。同样,语音转文本和机器翻译程序不理解它们处理的语言,自动驾驶系统不理解司机和行人用来避免事故的微妙眼神接触或肢体语言的含义。事实上,这些人工智能系统经常被提及的脆弱性——它们不可预测的错误和缺乏强大的泛化能力——是它们缺乏理解的关键指标 (1)。然而,在过去几年里,一种新型人工智能系统大受欢迎
本书是我们试图跨越科学与应用之间的鸿沟的尝试。我们解决了一般问题的一小部分。就计算机科学而言,我们专注于文本编辑任务领域和类似类型的高度交互系统。就心理学而言,我们专注于专家用户与系统交互的认知技能概念,尤其是交互的时间方面。我们构建了一个基于经验的认知理论,用于该领域的熟练人机交互。该理论是我们连接科学与应用的基石。一方面,我们表明该理论是人类信息处理科学的一致延伸。另一方面,我们将理论简化为实用的工程模型,这些模型是设计人员应用该理论的工具。因此,除了在本书中提出具体的心理模型外,我们还试图阐明应用心理学的一般框架,这些模型只是典型的例子。