摘要 — 共享的心理模型对于团队成功至关重要;然而,在实践中,由于各种因素,团队成员的模型可能不一致。在安全关键领域(例如航空、医疗保健),缺乏共享的心理模型可能导致可预防的错误和伤害。为了减轻此类可预防的错误,我们在此提出了一种贝叶斯方法来推断团队成员在执行复杂医疗任务过程中心理模型的不一致。作为一个示例应用,我们使用两个模拟的基于团队的场景来演示我们的方法,这些场景源自心脏手术中的实际团队合作。在这些模拟实验中,我们的方法推断出模型不一致,召回率超过 75%,从而为计算机辅助干预增强手术室中的人类认知并改善团队合作提供了基础。
提高我们对人类如何看待人工智能队友的理解,是我们对人机团队进行全面理解的重要基础。通过扩展认知科学的相关工作,我们提出了一个基于项目反应理论的框架来对这些感知进行建模。我们将这个框架应用于现实世界的实验,其中每个参与者与另一个人或人工智能代理一起在问答环境中工作,反复评估其队友的表现。利用这些实验数据,我们展示了我们的框架在测试人们对人工智能代理和其他人的看法的研究问题中的用途。我们将人工智能队友的心理模型与人类队友的心理模型进行对比,以描述这些心理模型的维度、它们随时间的演变以及参与者自身自我感知的影响。我们的结果表明,人们期望人工智能代理的表现平均而言明显优于其他人类的表现,并且在不同类型的问题中差异较小。最后,我们讨论了这些发现对人机交互的影响。
我们调查了财务专家对气候风险定价的信念,并分析这些信念如何影响股票回报期望。在一项全面的调查中,我们使用结构化和开放式问题引起了人们的信念。我们确定大多数人都有这样的观点,即气候风险在股票价格上不利地反映出,但它们对错误定价的来源和持久性保持了异质的信念。通过对开放文本响应的分析,我们描绘了额定专业人员使用的不同心理模型来解释和预测气候风险的资产定价含义。差异解释了短期(1年)和长期(10年)回报期望的差异。此外,我们记录了专家的政治倾向和地理,决定了他们所拥有的心理模型的类型。在最后一步中,我们表明了一种广泛持有的心理模型,该模型基于二阶信念,通过信息提供实验来影响专家的回报期望。
摘要。模式混淆不仅在航空心理学中被认为是一个重大的安全隐患。相关文献直观地使用了这一概念,但含义却大相径庭。我们提出了一种在共享控制系统中对人与机器进行建模的严格方法。这使我们能够提出“模式”和“模式混淆”的精确定义。在我们的建模方法中,我们通过明确区分机器和用户对机器的心理模型及其与安全相关的抽象来扩展机器和用户对机器的心理模型之间常用的区别。此外,我们表明,在设计阶段区分三个不同的界面可以降低模式混淆的可能性。结果是根据原因对模式混淆进行了新的分类,从而为共享控制系统提出了许多设计建议,有助于避免模式混淆问题。另一个结果是通过模型检查来检测模式混淆问题的基础。
摘要 — 人工智能 (AI) 在社会中发挥着重要作用,包括如何做出至关重要、往往改变生活的决定。因此,近年来,人们对可解释人工智能 (XAI) 的兴趣日益浓厚,它是一种揭示通常被描述为黑匣子中的流程和操作的手段,黑匣子是一个通常不透明的系统,其决策难以被最终用户理解。本文介绍了一个有 20 名参与者(计算机科学和平面设计专业学生)参加的设计思维研讨会的结果,我们试图调查用户在与 AI 系统交互时的心理模型。参与者使用两个角色,被要求同情 AI 驱动的招聘系统的两个最终用户,识别用户体验中的痛点并构思这些痛点的可能解决方案。这些任务用于探索用户对 AI 系统的理解、AI 系统的可理解性以及如何向最终用户解释这些系统的内部工作原理。我们发现,视觉反馈、分析和比较、特征突出显示以及事实、反事实和主要推理解释可用于改善用户对人工智能系统的心理模型。
摘要 - 当人们形成不合适的机器人的心理模型时,机器人设计师和人机互动(HRI)的实践者可能会面临挑战。尽管机器人技术领域将从设计师的广泛代表中受益匪浅,但目前尚无全面的方法,即在设计过程中包括许多人,也没有关于机器人设计功能可能引起的期望的理论。我们试图通过创建机器人设计平台来解决这些挑战,这是一种在线工具,类似于视频游戏中的角色创建界面,用户创建机器人设计。通过从用户那里收集大量的机器人设计,我们试图能够识别机器人设计的各个方面,从而影响人类归因于机器人的心理模型。为了最大程度地提高平台的通用可用性,我们进行了三部分调查,以评估应使用哪些图标以视觉上表示归因于该平台上用户创建的机器人的精神状态。在评估中,我们发现了九个符合我们在平台中使用的标准的图标,以及其他应该进一步评估的图标。
向最终用户提供有意义且可操作的解释是实现现实世界中可解释智能系统的基本前提。可解释性是用户与人工智能系统之间的情境交互,而不是静态的设计原则。解释的内容依赖于上下文,必须由有关用户及其上下文的证据来定义。本文试图通过提出一种从用户启发的角度定义解释空间的形成性架构来将这一概念付诸实践。该架构包括五个相互交织的组件,以概述任务的解释要求:(1)最终用户的心理模型,(2)最终用户的认知过程,(3)用户界面,(4)人类解释者代理和(5)代理过程。我们首先定义架构的每个组件。然后,我们介绍抽象解释空间,这是一种建模工具,它聚合了架构的组件,以支持设计人员系统地将解释与最终用户的工作实践、需求和目标保持一致。它指导需要解释的内容(内容 - 最终用户的心理模型)、为什么需要解释(背景 - 最终用户的认知过程)、如何解释(格式 - 人机解释代理和用户界面)以及何时给出解释。然后,我们在飞机维护领域的一个正在进行的案例研究中举例说明了该工具的使用。最后,我们讨论了该工具的可能贡献、已知的限制/改进领域以及未来要做的工作。
书籍描述:我们仍在学习人们如何学习,但至少自 1885 年以来,人们就已发现和了解了有关学习过程的一些知识。大多数学生从未了解过最佳学习实践,因为大多数教师都不知道。学习就是开发心理模型,它是某些外部现实的神经表征。学习应该间隔开来,主题应该交错。你应该在多个地方学习。轻微的干扰,如背景噪音,有助于学习过程。间隔学习允许孵化。孵化是指当你在做一些不相关的放松的事情时,你的大脑在处理问题或你学习过的材料。睡眠期间,大脑会发生很多事情,例如将材料转移到长期记忆中;巩固和互联白天学到的东西;以及在你的心理模型之间找到薄弱的关联。学习风格是一个神话。事实证明,你运用的感觉越多,学习效果就越好。大多数学生使用的技术都是幼稚的做法,例如突出显示;重读文本和笔记,这些都不能提高学习效果。有一些有目的的做法,比如自我测试,非常有效,需要融入学习过程。你需要培养正确的心态、自我控制和毅力,因为这些对你的成功比任何天赋都重要。营养、运动、睡眠和冥想在大脑功能中起着重要作用。提高你的学习能力是一种生活方式。这本书是关于如何最好地学习和优化你的大脑以适应学习过程。
4.3.2 .态势感知 态势感知 (SA) 可以定义为对一定时间和空间内环境元素的感知、对其含义的理解以及对其近期状态的预测。因此,人机界面最重要的人为因素问题是操作员保持态势/系统感知的能力。人机界面并不总是直观的,这是一个既定事实。非直观的“不透明”界面会导致操作复杂性,这通常会迫使操作员分配更多注意力以保持对情况/系统状态的充分心理模型。这成为态势感知丧失、系统性能下降以及最终导致人为错误和安全故障的温床。
