人机协作的真正潜力在于利用人类和人工智能的互补能力,实现优于单个人工智能或人类的联合绩效,即实现互补团队绩效 (CTP)。为了实现这种互补潜力,人类需要谨慎地遵循人工智能的建议,即适当地依赖人工智能的建议。虽然之前的研究主要集中在建立人工智能的心理模型来评估人工智能的建议,但最近的研究表明,仅靠心理模型无法解释适当的依赖。我们假设,除了心理模型之外,人类学习是适当依赖的关键介质,因此也是 CTP 的关键介质。在本研究中,我们在一项有 100 名参与者的实验中展示了学习与适当依赖之间的关系。这项工作为分析依赖提供了基本概念,并为人机决策的有效设计提供了启示。
在适用法律允许的最大范围内,在任何情况下,任何损失的利润或商机,滥用使用,业务中断,数据丢失或任何其他间接,特殊,偶然,偶然或后果损害均不承担任何责任理论,无论是基于合同,侵权,过失,产品责任,或其他责任理论。由于某些司法管辖区不允许对结果或附带损害的责任排除或限制,因此上述限制可能不适用于您。无论如何,承运人的总责任不得超过产品的购买价格。上述限制将适用于适用法律允许的最大范围,无论是否已告知承运人是否可能造成此类损害的可能性,无论是否有任何补救措施失败其本质目的。
随着人工智能技术与人类决策过程的融合日益紧密,对人工智能模型的对抗性攻击成为比以往任何时候都更令人担忧的问题,因为它们可能会严重损害人类对人工智能模型的信任,降低人机协作的有效性。虽然已经提出了许多对抗性攻击方法来降低人工智能模型的性能,但人们很少关注这些攻击将如何影响与模型交互的人类决策者,以及如何战略性地部署对抗性攻击以最大限度地减少人类的信任和依赖。在本文中,通过一项以人为对象的实验,我们首先表明,在人工智能辅助决策中,攻击的时机在很大程度上影响了人类对人工智能的信任和依赖的降低程度——当攻击发生在人类高度自信的决策任务上时,这种降低尤为明显。基于这些见解,我们接下来提出了一个算法框架来推断人类决策者对人工智能模型的隐藏信任,并动态决定攻击者何时应该对模型发起攻击。我们的评估表明,按照所提出的方法,攻击者可以部署更有效的攻击,并获得比采用其他基线策略更高的效用。
人工智能解释经常被提及作为改善人类与人工智能决策的一种方式,但实证研究并未发现解释有效性的一致证据,相反,当人工智能系统出错时,解释可能会增加过度依赖。虽然许多因素可能会影响对人工智能支持的依赖,但一个重要因素是决策者如何协调自己的直觉——基于先前知识、经验或模式识别的信念或启发式方法,用于做出判断——与人工智能系统提供的信息,以确定何时推翻人工智能预测。我们对两个预测任务进行了一项有声思考、混合方法研究,采用两种解释类型(基于特征和基于示例),以探索决策者的直觉如何影响他们对人工智能预测和解释的使用,并最终影响他们何时依赖人工智能的选择。我们的结果确定了推理人工智能预测和解释所涉及的三种直觉类型:关于任务结果的直觉、特征和人工智能限制。在此基础上,我们总结了三种可供决策者运用自己的直觉并推翻人工智能预测的途径。我们利用这些途径来解释为什么 (1) 我们使用的特征型解释并没有改善参与者的决策结果,反而增加了他们对人工智能的过度依赖,以及 (2) 我们使用的示例型解释比基于特征的解释提高了决策者的表现,并有助于实现人机互补的表现。总的来说,我们的工作确定了人工智能决策支持系统和解释方法的进一步发展方向,帮助决策者有效地运用直觉,实现对人工智能的适当依赖。
附件1中设施的详细信息。的原理和关键评级驱动因素分配给Reliance New Energy Battery Storage Limited(RNEBSL)的评级从其强大而机智的育儿中获得强度RIL的整体小组战略中的新能源业务。等级还从预期的运营协同作用中获得了舒适感,这些协同效应是由电池的固定消费衍生而来的,该电池的储存要求是Reliance Group计划的太阳能生成能力的存储要求,从而导致项目完成后的收入可见性,这是预期的重要经济经济,由于综合运营的综合操作和政府的范围众多的政府要求,以及由构成了各种政策的范围,以及对校长的范围,以及对校长的需求,以及各种态度的介绍。上述优势在很大程度上抵消了与如此大规模的部分债务资助的项目相关的固有风险,该项目目前处于新生的阶段,中国的竞争中国在电池电池制造中的竞争以及由于不断发展的技术而导致的技术过时风险。评级敏感性:可能导致评级动作的因素
人工智能系统越来越多地被用于支持人类决策。适当地遵循人工智能建议非常重要。然而,根据现有文献,用户通常对人工智能系统的依赖程度过低或过高,这导致团队绩效不佳。在这种情况下,我们通过对比贷款预测任务中系统信息的缺乏与系统准确性的存在来研究所述系统准确性的作用。我们通过调查数字能力水平并借助类比来解释系统准确性,探索人类理解系统准确性的程度如何影响他们对人工智能系统的依赖,这是一项首创的受试者间研究 (𝑁 = 281)。我们发现,用类比来解释系统的所述准确性并不能帮助用户适当地依赖人工智能系统(即,用户倾向于在系统正确时依赖系统,否则依赖自己)。为了消除对类比领域的主观态度的影响,我们进行了一项受试者内研究(𝑁 = 248),其中每个参与者都从事来自不同领域的基于类比的解释的任务。第二项研究的结果证实,用类比来解释系统的准确性不足以促进在贷款预测任务中对人工智能系统的适当依赖,无论个人用户有何差异。根据我们从这两项研究中得出的结论,我们推断,对人工智能系统的依赖不足可能是由于用户高估了自己解决给定任务的能力。因此,尽管熟悉的类比可以有效地提高系统所述准确性的可理解性,但对系统准确性的更好理解并不一定会导致系统依赖性和团队绩效的提高。
人工智能 (AI) 技术与人类工作流程的日益融合,带来了人工智能辅助决策的新范式,即人工智能模型提供决策建议,而人类做出最终决策。为了最好地支持人类决策,定量了解人类如何与人工智能互动和依赖人工智能至关重要。先前的研究通常将人类对人工智能的依赖建模为一个分析过程,即依赖决策是基于成本效益分析做出的。然而,心理学的理论模型表明,依赖决策往往是由情感驱动的,比如人类对人工智能模型的信任。在本文中,我们提出了一个隐马尔可夫模型来捕捉人工智能辅助决策中人机交互背后的情感过程,通过描述决策者如何随着时间的推移调整对人工智能的信任并基于他们的信任做出依赖决策。对从人类实验中收集的真实人类行为数据的评估表明,所提出的模型在准确预测人类在人工智能辅助决策中的依赖行为方面优于各种基线。基于所提出的模型,我们进一步深入了解了人类在人工智能辅助决策中的信任和依赖动态如何受到决策利害关系和交互经验等情境因素的影响。
本文探讨了在人工智能辅助伦理决策的背景下,人类与人工智能之间的价值观相似性对人类依赖的影响。以肾脏分配为例,我们进行了一项随机的人类受试者实验,其中工人在各种条件下面临道德困境,包括没有人工智能建议、来自类似人工智能的建议和来自不同人工智能的建议。我们发现,不同人工智能提供的建议对人类决策的总体影响高于来自类似人工智能的建议。然而,当人类和人工智能意见不一致时,参与者在获得类似人工智能的建议时更有可能改变他们的决定。这种影响不是由于人类对人工智能的看法相似,而是由于人工智能通过其建议表现出相似的道德价值观。我们还对价值观相似性和信任之间的关系以及人口层面的道德偏好的潜在转变进行了初步分析。
,我们根据根据该法案第143(10)条规定的审计标准(SAS)进行了对财务报表的审核。在审核员对我们报告的财务报表审计部分的责任中,进一步描述了我们在这些标准下的职责。我们根据印度特许会计师协会(“ ICAI”)发布的道德准则独立于公司,以及与我们根据该法案规定的规定和规则规则对财务报表的审计有关的道德要求,并且我们符合这些要求和ICECENS CODEN和ICECEN CODEN和ICECEN CODEN CODENS CODEN CORESS CODENS。我们认为,我们获得的审计证据足以供我们意见提供基础。
MAX SCHEMMER,德国卡尔斯鲁厄理工学院 NIKLAS KÜHL,德国卡尔斯鲁厄理工学院 CARINA BENZ,德国卡尔斯鲁厄理工学院 ANDREA BARTOS,德国卡尔斯鲁厄理工学院 GERHARD SATZGER,德国卡尔斯鲁厄理工学院