我们提出了一种基于保证金的损失,用于调整联合视觉语言模型,以便其基于梯度的解释与人类为相对较小的接地数据集提供的区域级注释一致。我们将这一目标作为注意掩盖一致性(AMC),并证明它比以前依靠使用视觉模型来评分对象检测器的输出的方法产生了较高的视觉接地结果。尤其是,在标准视觉模型目标之上训练AMC的模型获得了86的最新精度。在Flickr30k视觉接地基准中49%,绝对改进为5。38%与在相同水平的监督下训练的最佳先前型号时。我们的方法在既定的基准中都表现出色,可以在易于测试中获得80.34%的准确性,而在较难分裂中获得了80.34%的准确性,而在易于测试中的精度为64.55%。AMC有效,易于实现,并且是一般的,因为任何视觉模型都可以采用,并且可以使用任何类型的区域注释。
我们提出了Crystalbox,这是一个新颖的,模型的,后的,后的解释性框架,用于深钢筋学习(DRL)控制器,包括包括计算机系统在内的大型输入驱动的环境。我们将奖励函数在输入驱动的环境中的自然可分解性与分解重新转弯的解释力相结合。我们提出了一种有效的算法,以在离散和连续控制环境中生成基于未来的解释。使用自适应比特率流和拥堵控制等应用程序,我们演示了Crystal-box产生高保真解释的能力。我们进一步说明了在三种实际用例中的较高效用:对比解释,网络可观察性和指导性奖励设计,而不是先前的解释性技术来识别出色的特征。
来自:Page MJ,McKenzie JE,Bossuyt PM,Boutron I,Hoffmann TC,Mulrow CD等。Prisma 2020声明:报告系统审查的最新指南。BMJ 2021; 372:n71。doi:10.1136/bmj.n71。
• 干扰项会增加难度 • Stuart Garner 2007 • Harms、Chen 和 Kelleher 2016 • Denny、Luxton-Reilly 和 Simon 2008 • 将正确块和干扰项块配对会降低难度 • Denny、Luxton-Reilly 和 Simon 2008 • 提供缩进会降低难度 • Denny、Luxton-Reilly 和 Simon 2008 • Ihantola 和 Karavirta 2011 • 较少的块会使问题更容易 • Denny、Luxton-Reilly 和 Simon 2008
随着最近最先进的人工智能系统的激增,越来越需要为这些系统提供解释,以确保利益相关者的透明度和可理解性。这导致了越来越流行的可解释人工智能系统的开发,这些系统适用于广泛的应用。这一趋势表明需要能够定量评估和分析这些可解释人工智能系统的理论和行为特征。本研究旨在:(i) 确定适用于事后反事实解释方法(一种生成解释的机制)的指标和属性;(ii) 评估已确定的指标和属性在比较反事实示例方面的适用性;(iii) 分析所选反事实解释方法的功能和操作特征。
可解释人工智能 (XAI) 在使人类理解和信任深度学习系统方面发挥着至关重要的作用。随着模型变得越来越大、越来越普遍,并且在日常生活的各个方面都无处不在,可解释性对于最大限度地减少模型错误的不利影响是必不可少的。不幸的是,以人为中心的 XAI 中的当前方法(例如医疗保健、教育或个性化广告中的预测任务)倾向于依赖于单个事后解释器,而最近的研究发现,当应用于相同的底层黑盒模型实例时,事后解释器之间存在系统性分歧。因此,在本文中,我们呼吁采取行动来解决当前最先进解释器的局限性。我们建议从事后可解释性转向设计可解释的神经网络架构。我们确定了以人为中心的 XAI 的五个需求(实时、准确、可操作、人类可解释和一致),并提出了两种可解释设计神经网络工作流程的方案(使用 InterpretCC 进行自适应路由和使用 I2MD 进行时间诊断)。我们假设以人为中心的 XAI 的未来既不在于解释黑匣子,也不在于恢复传统的可解释模型,而在于本质上可解释的神经网络。
人工智能解释经常被提及作为改善人类与人工智能决策的一种方式,但实证研究并未发现解释有效性的一致证据,相反,当人工智能系统出错时,解释可能会增加过度依赖。虽然许多因素可能会影响对人工智能支持的依赖,但一个重要因素是决策者如何协调自己的直觉——基于先前知识、经验或模式识别的信念或启发式方法,用于做出判断——与人工智能系统提供的信息,以确定何时推翻人工智能预测。我们对两个预测任务进行了一项有声思考、混合方法研究,采用两种解释类型(基于特征和基于示例),以探索决策者的直觉如何影响他们对人工智能预测和解释的使用,并最终影响他们何时依赖人工智能的选择。我们的结果确定了推理人工智能预测和解释所涉及的三种直觉类型:关于任务结果的直觉、特征和人工智能限制。在此基础上,我们总结了三种可供决策者运用自己的直觉并推翻人工智能预测的途径。我们利用这些途径来解释为什么 (1) 我们使用的特征型解释并没有改善参与者的决策结果,反而增加了他们对人工智能的过度依赖,以及 (2) 我们使用的示例型解释比基于特征的解释提高了决策者的表现,并有助于实现人机互补的表现。总的来说,我们的工作确定了人工智能决策支持系统和解释方法的进一步发展方向,帮助决策者有效地运用直觉,实现对人工智能的适当依赖。
一些物种或其他非动物类别。如图2所示,我们显示了仅在视觉上与哺乳动物具有特色的概念,而在鸟类,昆虫和客机上共享的“翅膀”。剪辑[15]模型的示例W.R.T.相同的概念可能在不同类别中有所不同,它们通常与其他概念甚至虚假因素纠缠在一起。相比之下,我们的模型始终定位W.R.T.区域conept的语义含义。例如,尽管“翅膀”概念的外观在鸟类,昆虫和客机之间发生了巨大变化,但我们的概念级解释仍然可以准确地定位于机翼区域。这表明我们的模型具有该概念的真正含义,即使其呈现方式都在类别上发生了巨大变化。
允许将本工作的全部或一部分供个人或课堂使用的数字或硬副本授予,而没有费用,只要副本不是盈利或商业优势,并且副本带有此通知和首页上的完整引用。必须尊重他人拥有的这项工作的组件版权。允许用信用摘要。否则复制或重新出版以在服务器上发布或重新分配到列表,需要事先特定的许可和/或费用。请求权限从permissions@acm.org。
摘要 在过去的几年中,计算机辅助药物再利用方法开始受到更多关注,因为它们提供了一种更快、更有效的治疗多种疾病的方法。虽然这些方法在预测能力方面很有前景,但由于其高度复杂的工作机制限制了它们的可解释性,因此在实践中使用这些方法仍然存在犹豫。可解释人工智能 (XAI) 以透明度、可解释性和信息性为主要基础,可以解决黑盒模型的局限性。在这种情况下,知识图谱 (KG) 可以利用生物医学领域提供给用户的解释,因为它们能够以语义一致的方式表示实体之间的关系。知识图谱有可能生成基于图形的表示,同时提供上下文,使其易于被人类解释。在本文中,我们提出了一种方法,即基于 KG 的可解释 AI 框架,用于药物再利用领域,作为 PREDICT 方法的扩展。该方法的核心是通过从输入中提取相关路径来生成基于相似性的解释,输入包括一种疾病和一种预测的治疗该疾病的药物。为了证明这种方法的实用性,我们通过对阿尔茨海默病进行用例来演示如何使用 KG 中使用的图形操作来生成合理的解释。我们的研究结果表明,利用生物医学 KG 和这种方法具有提供透明解释的巨大潜力,因为它能够说明与目标输入非常相关的药物、疾病实体之间的关系。将这种方法应用于药物再利用和其他类似领域,可能有助于克服计算药物再利用模型的黑箱性质所造成的局限性,并可能成为增强对模型决策过程的理解和简化领域专家和计算机科学家之间的科学交流的有力工具。