摘要 技术和处理能力的进步推动了包括人工智能 (AI) 代理在内的复杂技术的出现。AI 代理以多种形式渗透到社会,包括对话代理或聊天机器人。由于这些聊天机器人具有社交组件,因此评估其设计的社会方面及其对用户结果的影响至关重要。本研究采用社会决定理论来研究三种动机需求对决策聊天机器人的用户交互结果变量的影响。具体而言,本研究着眼于相关性、能力和自主性对用户满意度、参与度、决策效率和决策准确性的影响。一项精心设计的实验表明,这三种需求对于用户满意度和参与度都很重要,而能力和自主性与决策准确性相关。这些发现强调了在 AI 设计过程中考虑心理结构的重要性。我们的研究结果还为计划使用人工智能辅助聊天机器人来改善决策制定的人工智能设计师和组织提供了有益的启示。
摘要:能源部门迫切需要减少对石油的依赖,对环境保护的需求也日益增加,这些因素推动了可再生能源供应链管理的研究和实践努力。专业人士、全球机构和学者普遍承认研究供应链绩效与可再生能源之间的相关性的重要性。深入研究文章中所使用的方法、主要关注点、重点关注的特定可再生能源以及用于优化可再生能源供应链的绩效指标非常重要。本文提供了一种分析方法,以增进对可再生能源供应链定量决策领域研究的理解。分析从搜索已发表的文章开始。随后,将范围缩小到最相关的文章。本文还讨论了文献中的知识空白。研究结果为正在考虑开展该领域研究的研究人员提供了参考。
随着人工智能产品的普及,人类和人工智能越来越多地合作做出决策。为了使这种类型的合作取得成功,人类需要了解人工智能的能力,以便有效地校准他们的信任。在这些合作关系中,以人类可以理解的方式解释决策和预测至关重要,以鼓励信任校准。可解释人工智能领域专注于将可解释性融入人工智能,但旨在使人工智能模型更具可解释性。因此,这项研究通常从以模型为中心的角度而不是以人为中心的角度来处理解释。与此同时,行业研究人员已经制定了指导方针,以帮助界面设计师有效地生成用户友好的解释。然而,这些指导方针通常过于宽泛,无法有效指导行业设计师的日常工作。我们的研究通过两种方法解决了这一差距:一个实证实验,研究人们如何回应解释以及哪些类型的解释对信任校准最有帮助;以及一个教育资源,帮助行业设计师了解用户可能有什么问题,以及使用环境如何影响他们可能使用的解释。我们的实验结果表明,解释并不总是有助于信任校准,实际上可能会损害信任校准,尤其是面对自我能力较低的新手用户时。我们对行业设计师进行的探索性访谈和可用性测试表明,人们渴望一种全面但易于访问的教育资源,以转化我们实验等研究并指导可解释的 AI 产品界面的设计。关键词
输入值,以便将模型预测更改为期望输出,这在可解释人工智能 (XAI) 中越来越多地用于促进人类与人工智能模型的交互 (Miller 2019)。我们通过扩展先前的反事实模型 (Russell 2019) 来形式化置信度的反事实解释。表 1 解释了 Russell (2019) 的模型与我们提出的方法之间的区别。然后,我以两种不同的呈现形式生成这些解释:(1) 基于示例的反事实和 (2) 基于可视化的反事实。为了评估解释,我们进行了用户研究,因为人们越来越接受可解释性技术应该建立在哲学、心理学和认知科学的研究之上 (Miller 2019),并且解释的评估过程应该涉及用户研究。我们为两个不同的领域招募了总共 180 名参与者。为了评估理解,我们使用任务预测(Hoffman 等人,2018 年,第 11 页)。参与者会得到一些实例,他们的任务是决定 AI 模型会为哪个实例预测更高的置信度分数。因此,任务预测有助于评估用户对他们对模型置信度的理解的心理模型。为了评估信任,我们使用了(Hoffman 等人,2018 年,第 49 页)的 10 点李克特信任量表。对于满意度,我们使用了(Hoffman 等人,2018 年,第 39 页)的 10 点李克特解释满意度量表。结果表明,与没有解释的基线相比,这两种形式的反事实解释都增加了信任和理解。值得注意的是,基于可视化和基于示例在提高理解、信任和满意度方面几乎没有差异。使用定性分析,我们观察到这两种方法的一些局限性:•人们使用基于案例的推理来理解基于示例的解释。也就是说,他们在基于示例的演示中找到最接近的例子,而忽略了置信度得分和特征值之间的线性相关性。这个结果表明,我们在使用基于示例的解释来解释连续变量时应该小心谨慎。•虽然使用基于可视化的解释更容易解释相关性,但是当并非所有反事实点都显示在解释中时,人们不愿意推断出最低值和最高值之外的相关性。因此,应该在解释中显示所有反事实点以缓解这个问题。
近年来,可解释人工智能 (XAI) 方法的实证评估文献越来越多。本研究通过对一组已建立的 XAI 方法在人工智能辅助决策中的效果进行比较,为这一持续的讨论做出了贡献。基于对先前文献的回顾,我们强调了理想的人工智能解释应该满足的三个理想属性——提高人们对人工智能模型的理解、帮助人们认识到模型的不确定性以及支持人们对模型的校准信任。通过三项随机对照实验,我们评估了四种常见的与模型无关的可解释人工智能方法是否在两种复杂程度不同的人工智能模型和两种人们认为自己具有不同领域专业知识水平的决策环境中满足这些属性。我们的结果表明,许多人工智能解释在用于人们缺乏领域专业知识的决策任务时,都不满足任何理想属性。在人们知识更丰富的决策任务上,即使人工智能模型本身就很复杂,特征贡献解释也能满足人工智能解释的更多要求。最后,我们讨论了我们的研究对改进 XAI 方法的设计以更好地支持人类决策以及推进更严格的 XAI 方法实证评估的意义。
多项研究旨在弥合人工智能 (AI) 与人类决策者在人工智能辅助决策中的差距,其中人类是人工智能模型预测的消费者,也是高风险应用中的最终决策者。然而,人们的感知和理解常常被他们的认知偏见所扭曲,例如确认偏见、锚定偏见、可用性偏见等等。在这项工作中,我们使用认知科学领域的知识来解释人机协作决策环境中的认知偏见,并减轻它们对协作绩效的负面影响。为此,我们用数学方法模拟认知偏见,并提供一个通用框架,研究人员和从业者可以通过该框架了解认知偏见与人机准确性之间的相互作用。然后,我们特别关注锚定偏见,这是人机协作中常见的偏见。我们实施了基于时间的脱锚策略,并进行了我们的第一次用户实验,以验证其在人机协作决策中的有效性。基于此结果,我们设计了一种资源受限环境下的时间分配策略,该策略在某些假设下可实现最佳人机协作。然后,我们进行了第二次用户实验,结果表明,当 AI 模型的置信度较低且不正确时,我们的带解释的时间分配策略可以有效地解除人类的束缚并提高协作绩效。
人工智能嵌入式系统参与人类决策的传播使得研究人类对这些系统的信任变得至关重要。然而,实证研究信任具有挑战性。原因之一是缺乏设计信任实验的标准协议。在本文中,我们介绍了现有的实证研究人工智能辅助决策中信任的方法,并根据实验方案的构成要素分析了语料库。我们发现信任的定义通常不整合在实验方案中,这可能导致研究结果被夸大或难以解释和跨研究比较。借鉴社会和认知研究中关于人与人之间信任的实证实践,我们提供了实用指南,以改进在决策环境中研究人与人工智能信任的方法。此外,我们提出了两类研究机会:一类侧重于对信任方法的进一步研究,另一类侧重于影响人与人工智能信任的因素。
我们正在制定一项人工智能技能和意识能力计划。该计划旨在为我们的官员和部长从智能客户到人工智能数据科学家等各个层面开发培训途径。我们的目标是到 2024 年为该部门制定一个强大且全面实施的计划,尽可能使用现有流程,但不仅限于当前可用的流程,并根据 DfT 的情况量身定制。这包括数据伦理方面的专业培训,将由开放数据研究所 (ODI) 提供。我们从南安普顿大学和赫瑞瓦特大学引进了两名人工智能专业博士来支持这项工作。商业和数字等专业领域正在确定其职能的额外培训需求,并将根据需要推出针对数字平台和采购流程的相关培训。
机器人是具有具体行为能力的智能体,会在多种不确定性因素下行动。在协助人类完成协作任务时,机器人需要传达它们的不确定性以帮助做出决策。在本研究中,我们研究了在高风险辅助决策任务中可视化机器人不确定性的使用情况。具体来说,我们探讨了机器人传达的不同不确定性可视化形式(图形显示与机器人的具体行为)和置信度水平(低、高、100%)如何影响人类在协作任务中的决策和感知。结果表明,这些可视化显著影响了参与者如何做出决策,以及他们如何看待机器人在不同置信度水平下的透明度。我们强调了潜在的权衡,并为机器人辅助决策提供了启示。我们的工作为人类如何在关键的机器人辅助决策场景中利用机器人传达的不确定性可视化提供了实证见解。