如今,人工智能越来越多地被用于帮助人类专家在高风险场景中做出决策。在这些场景中,完全自动化通常是不可取的,这不仅是因为结果的重要性,还因为人类专家可以利用他们的领域知识来补充模型,以确保任务成功。我们将这些场景称为人工智能辅助决策,其中人类和人工智能各自的优势共同优化联合决策结果。成功的关键在于根据具体情况适当校准人类对人工智能的信任;知道何时信任或不信任人工智能可以让人类专家适当地运用他们的知识,在模型可能表现不佳的情况下改善决策结果。本研究对人工智能辅助决策进行了案例研究,其中人类和人工智能单独具有可比的表现,并探索揭示特定案例模型信息的特征是否可以校准信任并提高人类和人工智能的联合表现。具体来说,我们研究显示特定预测的置信度得分和局部解释的影响。通过两项人类实验,我们表明,置信度得分可以帮助校准人们对人工智能模型的信任,但仅靠信任校准不足以改善人工智能辅助决策,这也可能取决于人类是否能够带来足够的独特知识来弥补人工智能的错误。我们还强调了在人工智能辅助决策场景中使用局部解释的问题,并邀请研究界探索新的可解释性方法,以校准人类对人工智能的信任。
互联网用户每天都会在网上做出许多决策。随着近年来人工智能的快速发展,人工智能辅助决策(由人工智能模型提供决策建议和信心,而人类做出最终决策)已成为人机协作的新范式。在本文中,我们旨在定量了解人类决策者是否以及何时会采纳人工智能模型的建议。我们通过将人类决策者在每个决策任务中的认知过程分解为两个部分来定义人类行为模型空间:效用部分(即评估不同动作的效用)和选择部分(即选择要采取的动作),然后我们在模型空间中执行系统搜索以确定最适合现实世界人类行为数据的模型。我们的研究结果强调,在人工智能辅助决策中,人类决策者的效用评估和行动选择受到他们自己对决策任务的判断和信心的影响。此外,人类决策者表现出在效用评估中扭曲决策信心的倾向。最后,我们还分析了随着决策的利害关系不同,人类对人工智能建议的采纳行为的差异。
人工智能 (AI) 技术与人类工作流程的日益融合,带来了人工智能辅助决策的新范式,即人工智能模型提供决策建议,而人类做出最终决策。为了最好地支持人类决策,定量了解人类如何与人工智能互动和依赖人工智能至关重要。先前的研究通常将人类对人工智能的依赖建模为一个分析过程,即依赖决策是基于成本效益分析做出的。然而,心理学的理论模型表明,依赖决策往往是由情感驱动的,比如人类对人工智能模型的信任。在本文中,我们提出了一个隐马尔可夫模型来捕捉人工智能辅助决策中人机交互背后的情感过程,通过描述决策者如何随着时间的推移调整对人工智能的信任并基于他们的信任做出依赖决策。对从人类实验中收集的真实人类行为数据的评估表明,所提出的模型在准确预测人类在人工智能辅助决策中的依赖行为方面优于各种基线。基于所提出的模型,我们进一步深入了解了人类在人工智能辅助决策中的信任和依赖动态如何受到决策利害关系和交互经验等情境因素的影响。
随着人工智能模型驱动的决策辅助工具的快速发展,人工智能辅助决策的实践越来越普遍。为了提高人机团队的决策能力,早期的研究多集中于提高人类更好地利用给定的人工智能驱动的决策辅助工具的能力。在本文中,我们通过一种互补的方法来应对这一挑战——我们旨在通过调整决策辅助工具背后的人工智能模型来训练“行为感知人工智能”,以考虑人类在采纳人工智能建议时的行为。具体来说,由于人们观察到当人类对自己的判断信心较低时,他们会更容易接受人工智能的建议,因此我们建议使用基于人类信心的实例加权策略来训练人工智能模型,而不是解决标准的经验风险最小化问题。在一个假设的、基于阈值的模型下,该模型描述了人类何时会采纳人工智能建议,我们首先推导出用于训练人工智能模型的最佳实例加权策略。然后,我们通过在合成数据集上进行系统实验,验证了我们提出的方法在提高人机联合决策性能方面的有效性和稳健性。最后,通过对真实人类受试者的随机实验以及他们采纳人工智能建议的实际行为,我们证明了我们的方法在实践中可以显著提高人机团队的决策性能。
随着人工智能技术与人类决策过程的融合日益紧密,对人工智能模型的对抗性攻击成为比以往任何时候都更令人担忧的问题,因为它们可能会严重损害人类对人工智能模型的信任,降低人机协作的有效性。虽然已经提出了许多对抗性攻击方法来降低人工智能模型的性能,但人们很少关注这些攻击将如何影响与模型交互的人类决策者,以及如何战略性地部署对抗性攻击以最大限度地减少人类的信任和依赖。在本文中,通过一项以人为对象的实验,我们首先表明,在人工智能辅助决策中,攻击的时机在很大程度上影响了人类对人工智能的信任和依赖的降低程度——当攻击发生在人类高度自信的决策任务上时,这种降低尤为明显。基于这些见解,我们接下来提出了一个算法框架来推断人类决策者对人工智能模型的隐藏信任,并动态决定攻击者何时应该对模型发起攻击。我们的评估表明,按照所提出的方法,攻击者可以部署更有效的攻击,并获得比采用其他基线策略更高的效用。
人工智能 (AI) 越来越多地被用于各种决策任务,通常作为推荐者,提供 AI 认为正确的建议。然而,最近的研究表明,这可能会削弱人类的分析思维,导致人类对 AI 的过度依赖,从而削弱人机团队的协同作用。相比之下,群体决策中的人类顾问扮演着各种角色,例如分析替代方案或批评决策者以鼓励他们的批判性思维。这种角色的多样性尚未在 AI 辅助中得到实证探索。在本文中,我们研究了三个 AI 角色:推荐者、分析者和魔鬼代言人,并评估了它们在两个 AI 性能水平上的影响。我们的结果显示了每个角色在任务执行、依赖适当性和用户体验方面的不同优势和局限性。值得注意的是,推荐者角色并不总是最有效的,特别是如果 AI 性能水平较低,分析者角色可能更可取。这些见解为根据不同情况设计具有自适应功能角色的 AI 助手提供了有价值的启示。
摘要:影响个人的人工智能辅助决策提出了关于人工智能透明度和公平性的关键问题。许多研究强调了人工智能辅助决策中透明度/解释和公平性之间的相互关系。因此,同时考虑它们对用户信任或感知公平性的影响有利于负责任地使用社会技术人工智能系统,但目前很少受到关注。在本文中,我们分别研究了人工智能解释和公平性在特定基于人工智能的决策场景中对人类-人工智能信任和感知公平性的影响。一项模拟人工智能辅助决策在两个健康保险和医疗决策场景中的用户研究提供了重要的见解。由于全球大流行及其限制,用户研究以在线调查的形式进行。从参与者的信任角度来看,公平性仅在公平性水平较低的情况下才会影响用户信任,而公平性水平较低会降低用户信任。然而,增加解释有助于用户增加对人工智能辅助决策的信任。从感知公平的角度来看,我们的研究发现,引入低水平的公平性会降低用户的公平性感知,而引入高水平的公平性会提高用户的公平性感知。解释的加入无疑会增加公平性感知。此外,我们发现应用场景会影响信任和公平性感知。结果表明,在人工智能应用中使用人工智能解释和公平性陈述是复杂的:我们不仅需要考虑引入的解释类型和公平性程度,还需要考虑人工智能辅助决策的使用场景。
在人工智能辅助决策中,人类决策者知道何时信任人工智能以及何时信任自己至关重要。然而,先前的研究仅基于表明人工智能正确性可能性 (CL) 的人工智能置信度来校准人类信任,而忽略了人类的 CL,从而阻碍了最佳团队决策。为了弥合这一差距,我们提出在任务实例级别基于双方的 CL 来促进人类适当的信任。我们首先通过近似人类的决策模型并计算他们在类似情况下的潜在表现来建模人类的 CL。我们通过两项初步研究证明了我们模型的可行性和有效性。然后,我们提出了三种 CL 利用策略来在人工智能辅助决策过程中显式/隐式地校准用户的信任。一项受试者间实验 (N=293) 的结果表明,与仅使用人工智能置信度相比,我们的 CL 利用策略可以促进人类对人工智能更合适的信任。我们进一步为更人性化的人工智能辅助决策提供了实际意义。
Christina Favier,2015年在MUH实施《辅助决策法》(能力)法案的项目经理和成人保障和辅助决策的高级医学社会工作者Lynn Shannon最近与Mercy Times谈到了该法案及其带来了临床实践的变化。 该法案于2023年4月26日生效,用渐进的,基于权利的制度取代了法院系统的病房,并建立了一个新的法律框架以进行支持的决策。 该法案认识到,尽可能地,所有成年人都具有在影响他们的决策中发挥积极作用的基本权利。 这些决定可以是关于其医疗保健,个人福利以及财产和事务的。 就MUH患者而言,这些决定可以是关于同意或拒绝治疗的,并就出院后的住所做出决定。Christina Favier,2015年在MUH实施《辅助决策法》(能力)法案的项目经理和成人保障和辅助决策的高级医学社会工作者Lynn Shannon最近与Mercy Times谈到了该法案及其带来了临床实践的变化。该法案于2023年4月26日生效,用渐进的,基于权利的制度取代了法院系统的病房,并建立了一个新的法律框架以进行支持的决策。该法案认识到,尽可能地,所有成年人都具有在影响他们的决策中发挥积极作用的基本权利。这些决定可以是关于其医疗保健,个人福利以及财产和事务的。就MUH患者而言,这些决定可以是关于同意或拒绝治疗的,并就出院后的住所做出决定。