近年来,可解释人工智能 (XAI) 方法的实证评估文献越来越多。本研究通过对一组已建立的 XAI 方法在人工智能辅助决策中的效果进行比较,为这一持续的讨论做出了贡献。基于对先前文献的回顾,我们强调了理想的人工智能解释应该满足的三个理想属性——提高人们对人工智能模型的理解、帮助人们认识到模型的不确定性以及支持人们对模型的校准信任。通过三项随机对照实验,我们评估了四种常见的与模型无关的可解释人工智能方法是否在两种复杂程度不同的人工智能模型和两种人们认为自己具有不同领域专业知识水平的决策环境中满足这些属性。我们的结果表明,许多人工智能解释在用于人们缺乏领域专业知识的决策任务时,都不满足任何理想属性。在人们知识更丰富的决策任务上,即使人工智能模型本身就很复杂,特征贡献解释也能满足人工智能解释的更多要求。最后,我们讨论了我们的研究对改进 XAI 方法的设计以更好地支持人类决策以及推进更严格的 XAI 方法实证评估的意义。
血清滴度是血液测试,可以测量您是否免疫给定疾病。更具体地说,定量血清滴度是具有数值值的滴度,表明您对疾病的实际免疫力。您将以定量滴度的形式进行有记录的免疫证明的临床站点 - 仅接受疫苗是不够的。因此,每个学生都必须绘制定量滴度,并保留官方实验室打印输出的副本,其中包含腮腺炎,麻疹,风疹,水痘和HEP B免疫力的数值。还应在您完成的护理学生健康需求表中指示您的初级保健提供者完成的。重要的事情要注意/陷阱要避免:
在过去的几年中,深度卷积神经网络一直在验证和识别场景中推动面部识别(FR)技术的边界。尽管准确性很高,但他们经常因缺乏解释性而受到批评。对了解深面识别系统的决策过程的需求越来越不断增加。最近的研究调查了视觉显着性图作为一种解释,但在面部识别的背景下,它们通常缺乏讨论和分析。本文集中于可解释的面部验证任务,并想出了新的解释框架。首先,提供了基于显着的解释方法的定义,该方法的重点是深FR模型做出的决策。其次,提出了一种名为corrrise的新型模型不合时宜的方法来产生显着图,该图显示了任何给定的面部图像的相似区域和不同区域。然后,一种评估方法旨在衡量面部验证中一般视觉显着性解释方法的性能。最后,实质性的视觉和定量结果表明,与其他可解释的面部验证方法相比,提出的Corrrise方法具有有希望的结果。
在这项工作中,我们研究了基于特征的解释对人工智能辅助决策分配公平性的影响,特别关注从简短的文本简历中预测职业的任务。我们还研究了任何影响是如何通过人类的公平感知及其对人工智能建议的依赖来调节的。我们的研究结果表明,解释会影响公平感知,而公平感知又与人类遵守人工智能建议的倾向有关。然而,我们发现这样的解释并不能让人类辨别正确和不正确的人工智能建议。相反,我们表明,无论人工智能建议的正确性如何,它们都可能影响依赖性。根据解释强调的特征,这可能会促进或阻碍分配公平:当解释强调与任务无关且显然与敏感属性相关的特征时,这会提示覆盖与性别刻板印象相符的 AI 建议。同时,如果解释看起来与任务相关,这会引发依赖行为,从而强化刻板印象一致的错误。这些结果表明基于特征的解释不是提高分配公平性的可靠机制。
认知科学关于人们如何理解解释的见解对于开发可解释人工智能 (XAI) 中以用户为中心的稳健解释颇具指导意义。我调查了人们在构建解释和从中做出推断时表现出的主要倾向,这些倾向与为人工智能系统提供决策自动解释有关。我首先回顾了人们在构建解释时表现出的一些倾向的实验发现,包括解释深度错觉、直觉解释与反思解释以及解释立场的证据。然后,我考虑了人们如何推理因果解释的发现,包括推理抑制、因果折扣和解释简单性的证据。我认为,XAI 努力的核心是要求人工智能系统提供的自动解释应该对人类用户有意义。
在量子光学领域,精确表征各种噪声源(例如散粒噪声、电噪声和真空噪声)对于推进光学测量技术和量子信息系统至关重要。本研究介绍了一种使用同差检测将光强度波动转换为电压信号的实验方法。然后借助示波器或频谱分析仪分析这些信号,以剖析噪声的时间和频谱特性。这些工具的集成使我们能够详细观察和区分量子噪声,从而提供对提高光学系统的准确性和效率至关重要的见解。该项目主要基于两部分:光学和电子学,我们成功完成了光学部分,而电气部分有待未来研究。这些发现为改进量子噪声表征奠定了基础,促进了下一代光学和量子信息技术的发展。
本文已由Efrag秘书处准备在Efrag Sr Teg的一次公开会议上进行讨论。本文构成了潜在EFRAG位置发展的早期阶段的一部分。因此,本文不代表Efrag的官方观点或Efrag SRB或Efrag Sr Teg的任何个人。该论文可供使用,使公众能够遵循会议中的讨论。暂定决定是在公开场合做出的,并在EFRAG更新中进行了报告。eFrag职位作为评论信,讨论或职位论文或在这种情况下被认为适当的任何其他形式发表。已经起草了每个解释的内容,以提供特定技术问题的答案,并且不能通过类比直接扩展到其他事实模式。
摘要:许多机器人学习方法首先从一组人类示范中推断出奖励功能。要学习良好的奖励,有必要在确定应如何使用这些功能来计算奖励之前确定环境的哪些功能。联合特征和奖励学习的端到端方法(例如,使用深网或程序合成技术)通常会产生对虚假国家敏感的脆弱奖励功能。相比之下,人类通常可以通过将强大的先验纳入少量的示范中,从而可以从少量的示范中学习,以了解示威的特征可能对感兴趣的任务有意义。在从新演示中学习时,我们如何构建利用这种背景知识的机器人?本文介绍了一种名为藻类的方法(来自[对比]解释的自适应语言引导的处理),该方法在使用语言模型来迭代地识别所需的人类卑鄙的特征之间交替,然后识别出所需的人类卑鄙的特征,然后识别出标准的逆增强学习技术,将权重分配给这些特征。在各种模拟和现实世界机器人环境中进行的实验表明,藻类仅使用少量的示例来学习在可解释的特征上定义的可通用奖励功能。重要的是,藻类可以识别何时缺少功能,然后提取并定义这些功能而无需任何人类输入,从而可以快速有效地获得对用户行为的丰富表示形式。
我们介绍了CEMA:c ausal e xplanations in m ulti-themens stystems;在动态的顺序多代理系统中创建因果自然语言解释的框架,以构建更值得信赖的自主代理。与假定固定因果结构的先前工作不同,CEMA仅需要一个概率模型来正向缩减系统状态。使用这种模型,CEMA模拟了反事实世界,这些世界识别了代理决定背后的显着原因。我们评估CEMA的自动驾驶运动计划任务,并在各种模拟场景中对其进行测试。我们表明,即使存在大量其他代理商,CEMA正确地识别了代理决定背后的原因,并通过用户研究表明,CEMA的解释对参与者对自动驾驶汽车的信任具有积极影响,并且对其他参与者的高度基线解释的评价也很高。我们以注释作为HeadD数据集发布了收集的解释。
本文已由Efrag秘书处编写,在Efrag SRB的一次公开会议上进行讨论。本文构成了潜在EFRAG位置发展的早期阶段的一部分。因此,本文不代表Efrag的官方观点或Efrag SRB或Efrag SR TEG的任何个人。该论文可供使用,使公众能够遵循会议中的讨论。暂定决定是在公开场合做出的,并在EFRAG更新中进行了报告。eFrag职位作为评论信,讨论或职位论文或在这种情况下被认为适当的任何其他形式发表。已经起草了每个解释的内容,以提供特定技术问题的答案,并且不能通过类比直接扩展到其他事实模式。