提高我们对人类如何看待人工智能队友的理解,是我们对人机团队进行全面理解的重要基础。通过扩展认知科学的相关工作,我们提出了一个基于项目反应理论的框架来对这些感知进行建模。我们将这个框架应用于现实世界的实验,其中每个参与者与另一个人或人工智能代理一起在问答环境中工作,反复评估其队友的表现。利用这些实验数据,我们展示了我们的框架在测试人们对人工智能代理和其他人的看法的研究问题中的用途。我们将人工智能队友的心理模型与人类队友的心理模型进行对比,以描述这些心理模型的维度、它们随时间的演变以及参与者自身自我感知的影响。我们的结果表明,人们期望人工智能代理的表现平均而言明显优于其他人类的表现,并且在不同类型的问题中差异较小。最后,我们讨论了这些发现对人机交互的影响。
摘要 — 人工智能 (AI) 在社会中发挥着重要作用,包括如何做出至关重要、往往改变生活的决定。因此,近年来,人们对可解释人工智能 (XAI) 的兴趣日益浓厚,它是一种揭示通常被描述为黑匣子中的流程和操作的手段,黑匣子是一个通常不透明的系统,其决策难以被最终用户理解。本文介绍了一个有 20 名参与者(计算机科学和平面设计专业学生)参加的设计思维研讨会的结果,我们试图调查用户在与 AI 系统交互时的心理模型。参与者使用两个角色,被要求同情 AI 驱动的招聘系统的两个最终用户,识别用户体验中的痛点并构思这些痛点的可能解决方案。这些任务用于探索用户对 AI 系统的理解、AI 系统的可理解性以及如何向最终用户解释这些系统的内部工作原理。我们发现,视觉反馈、分析和比较、特征突出显示以及事实、反事实和主要推理解释可用于改善用户对人工智能系统的心理模型。
随着越来越多的人工智能形式变得普遍,了解人们如何开发这些系统的心智模型变得越来越重要。在这项工作中,我们研究了人们在合作猜词游戏中对人工智能代理的心智模型。我们进行了一项研究,让人们与人工智能代理一起玩游戏,同时“大声思考”;通过主题分析,我们确定了参与者开发的心智模型的特征。在一项大规模研究中,我们让参与者在线与人工智能代理玩游戏,并使用赛后调查来探究他们的心智模型。我们发现,获胜次数更多的人通常对人工智能代理的能力有更好的估计。我们提出了用于建模人工智能系统的三个组成部分——全局知识、局部知识和知识分布,并提出了解底层技术不足以开发适当的概念模型——行为分析也是必要的。
摘要 研究表明,非专家用户倾向于过度信任或不信任人工智能系统。当人工智能应用于医疗保健时,这引起了人们的担忧,因为患者信任不可靠系统的建议或完全不信任可靠系统的建议可能会导致致命事故或错失医疗保健机会。先前的研究表明,解释可以帮助用户对人工智能系统的信任做出适当的判断,但如何在医疗支持场景中为非专家用户设计人工智能解释界面仍然是一个悬而未决的研究挑战。本文探讨了一个基于阶段的参与式设计过程,以在人工智能医疗支持场景中为非专家开发一个值得信赖的解释界面。值得信赖的解释是一种帮助用户做出深思熟虑的判断,是否信任人工智能系统用于他们的医疗保健的解释。本文的目的是确定可以有效指导可信解释界面设计的解释组件。为了实现这一目标,我们进行了三次数据收集,研究了专家和非专家对人工智能医疗支持系统解释的看法。然后,我们开发了解释的用户心智模型、专家心智模型和目标心智模型,描述了非专家和专家如何理解解释、他们的理解有何不同以及如何将它们结合起来。基于目标心智模型,我们提出了一套 14 条解释设计指南,用于值得信赖的 AI 医疗系统解释,这些指南考虑到了非专家用户的需求、医疗专家的实践和 AI 专家的理解。
如果强化学习 (RL) 代理未接受过 AI 培训,那么当领域专家试图评估 AI 的适用性时,他们应该如何向这些领域专家解释自己?为了研究这个问题,我们进行了一项有 124 名参与者参与的实验,并通过以下方式衡量他们的心智模型:(a) 他们预测 AI 行为的能力和 (b) 他们认为 AI 如何做出决策的书面“规则手册”。我们这样做是为了在简单的 RTS 游戏环境中比较参与者对 RL 代理的心智模型。我们的目标是比较参与者在四种解释配置下对 AI 代理的心智模型:(控制) 无解释;(显着性) 显着性图,解释 AI 的注意力焦点;(奖励) 奖励分解条,解释 AI 对未来奖励类型的预测;和 (一切) 显着性和奖励。这些解释如图 1 所示。为了比较这些解释配置,我们设计了一项受试者间控制实验室研究,以测量人们对 RTS 游戏中不同解释组合的反应差异。为了控制可能采取的行动空间,我们构建了自己的游戏,我们称之为 4-Towers 游戏。在 4-Towers 游戏中,
联系:“通过分享心智模型、比较笔记、提高我们预测队友下一步行动的能力,智力联系可以提高能力。通过建立关系,个人联系可以增强我们的性格和韧性。我们分享我们的经验,并努力了解他人生活中发生的事情。不仅在思想上,而且在身体和精神上。个人联系——关系——当然应该在我们的海军团队中扩大和加深,但……还应该包括我们的[家人、朋友、教堂、健身俱乐部和其他社区]。个人和智力联系对于实现最高水平的表现至关重要。
• 28 年大学管理者经验,最近 5 年在两所大学担任规划总监 • 21 年在许多国家的一系列组织中使用前瞻性方法 • 接受过前瞻性与未来研究的学术培训(斯威本科技大学) • 以成果为实践导向 - 它们必须在当下有用 • 以认知为导向的思考 - 将心智模型从“未来”转变为“多种未来” • 前瞻性是人类固有的能力 - 但我们无法触摸或感受它,因此它的价值在战略讨论中经常被忽视。
了解机器学习的原理对于儿童开发有用的心智模型以探索他们现在经常接触的人工智能 (AI) 和智能设备至关重要。尽管儿童非常熟悉与 Siri 和 Alexa 等对话代理进行对话,但他们对人工智能和机器学习的了解往往有限。我们利用他们现有的熟悉程度,推出了 Zhorai,这是一个对话平台和课程,旨在帮助幼儿了解机器学习的原理。8 至 11 岁的儿童通过对话训练代理,并了解如何使用可视化来表示知识。本文介绍了我们如何设计课程,并通过 14 名儿童小组评估了其有效性。我们发现,该平台的对话方面增加了学习过程中的参与度,新颖的可视化有助于使机器知识易于理解。因此,我们为 Zhorai 的未来迭代和向儿童教授人工智能的方法提出了建议。
设计和部署人工智能 (AI) 系统的组织越来越多地致力于高层次的道德原则。然而,人工智能伦理的原则和实践之间仍然存在差距。组织在尝试实施人工智能伦理时面临的一个主要障碍是缺乏明确定义的物质范围。换句话说,人工智能伦理原则应该适用于哪些系统和流程的问题仍未得到解答。当然,人工智能并没有普遍接受的定义,不同的系统带来不同的道德挑战。然而,务实的解决问题要求对事物进行分类,以便它们的分组能够促进某些特定目的的成功行动。在本文中,我们回顾并比较了以前为在实践中实施人工智能治理而对人工智能系统进行分类的尝试。我们发现,以前文献中对人工智能系统进行分类的尝试使用了以下三种心智模型之一:转换模型,即一种二元方法,根据系统的特征将系统视为或不视为人工智能系统;阶梯模型,即一种基于风险的方法,根据系统所带来的道德风险对其进行分类;矩阵,即多维系统分类,考虑了各种方面,例如上下文、数据输入和决策模型。这些用于对人工智能系统进行分类的模型各有优缺点。通过将对人工智能系统进行分类的不同方式概念化为简单的心理模型,我们希望为设计、部署或监管人工智能系统的组织提供在实践中实施人工智能治理所需的概念工具。