引言人工智能 (AI) 的发展已展现出令人瞩目的性能,特别是在图像处理或游戏等明确定义的领域。然而,所部署的技术对于人类用户来说可能是不透明的,这引发了一个问题:人工智能系统如何提供解释 (Neerincx 等人,2018 年;Rosenfeld 和 Richardson,2019 年),并且监管框架对可解释人工智能 (XAI) 的需求日益增长。话虽如此,2017 年,谷歌的研究主管 Peter Norvig 指出,在人类可能不擅长提供“解释”的情况下期望计算机提供“解释”是具有讽刺意味的。可解释人工智能 (XAI) 的大部分工作都严重依赖于以计算机为中心的视角 (Springer,2019 年)。例如,Holzinger 等人 (2020) 假设人类和人工智能系统可以平等地访问“基本事实”。由此可见,可解释性“……突出了机器表示中与决策相关的部分……,即有助于模型在训练中的准确性或特定预测的部分。”与许多 XAI 文献一样,这并没有为人类提供任何角色,只能作为被动接受者。这意味着人工智能系统能够反省自己的过程来生成解释。然后将得到的解释呈现给用户,并描述人工智能系统的流程或它使用过的特征(“决策相关部分”)。这样,解释就只是一个建议(来自人工智能系统)加上与此相关的特征。正如 Miller (2017) 所指出的那样,这种态度的一个问题在于,它是基于设计师对什么是“好的”解释的直觉,而不是基于对人类如何响应和利用解释的合理理解。这并不能说明为什么选择某些特征,也不能说明为什么建议适合用户的关注点。它也没有将解释置于更广泛的组织中;分析师的解释可能与数据收集管理人员或接受分析师简报的经理的解释不同。对于 Holzinger 等人 (2020) 来说,情况的各个方面(定义为基本事实)被组合成一个陈述;也就是说,解释只是这个陈述的一种表达。这意味着从特征到解释存在线性插值。这类似于 Hempel 和 Oppenheim (1948) 的“覆盖定律模型”,该模型关注的是历史学家如何根据先前的原因来解释事件。然而,“基本事实”(由 Holzinger 的过程模型和覆盖定律模型假设)很少得到完全定义(导致在选择相关特征时产生歧义)。这意味着,仅仅陈述情况方面而不说明为什么选择这些方面(而不是其他方面)可能不会产生有用或可用的解释。霍夫曼等人(2018)对与解释相关的文献进行了全面的回顾。从这篇评论来看,解释涉及人类的理解(将人工智能系统的输出置于特定情境中),我们同意,考虑这一点的适当框架是数据框架的理解模型(Klein 等人,2007)。此外,理解(及其与解释的关系)依赖于认识到过程(提供和接收解释)必须是相互的、迭代的和协商的。这个过程依赖于“解释者”和“被解释者”达成一致。换句话说,解释涉及“共同点”(Clark,1991),其中理解上有足够的一致性以使对话继续进行。对话的性质将取决于提供解释的情况和被解释者的目标。例如,被解释者可能是“受训者”,他试图理解解释以学习决策标准,也可能是“分析师”,使用人工智能系统的建议作为政策。
近年来,检测变形人脸图像的任务变得非常重要,以确保基于人脸图像的自动验证系统(例如自动边境控制门)的安全性。基于深度神经网络 (DNN) 的检测方法已被证明非常适合此目的。然而,它们在决策过程中并不透明,而且不清楚它们如何区分真实人脸图像和变形人脸图像。这对于旨在协助人类操作员的系统尤其重要,因为人类操作员应该能够理解其中的推理。在本文中,我们解决了这个问题,并提出了聚焦分层相关性传播 (FLRP)。该框架在精确的像素级别向人类检查员解释深度神经网络使用哪些图像区域来区分真实人脸图像和变形人脸图像。此外,我们提出了另一个框架来客观地分析我们方法的质量,并将 FLRP 与其他 DNN 可解释性方法进行比较。该评估框架基于移除检测到的伪影并分析这些变化对 DNN 决策的影响。特别是,如果 DNN 的决策不确定甚至不正确,与其他方法相比,FLRP 在突出显示可见伪影方面表现得更好。
可解释人工智能 (XAI) 领域已迅速成为一个蓬勃发展且成果丰硕的社区。然而,该领域一个不为人知、反复出现且公认的问题是缺乏对其术语的共识。特别是,每一项新贡献似乎都依赖于其自己的(通常是直观的)术语版本,例如“解释”和“阐释”。这种混乱阻碍了该领域进步的巩固,无法满足科学和监管要求,例如在比较方法或确定其对偏见和公平约束的遵从性时。我们提出了一个理论框架,它不仅为这些术语提供了具体的定义,而且还概述了产生解释和阐释所需的所有步骤。该框架还允许重新语境化现有贡献,以便可以衡量其范围,从而使它们与其他方法具有可比性。我们表明,该框架符合对解释、可解释性和评估指标的要求。我们提供了一个用例,展示了如何使用该框架来比较 LIME、SHAP 和 MDNet,确定它们的优点和缺点。最后,我们从我们的框架的角度讨论了 XAI 的相关趋势以及对未来工作的建议。
人工智能(AI)方法是现代世界不可或缺的一部分。如今,每个与智能手机互动的人都与AI接触(Herget,2024)(Wired Insider,2021)。 自从大型语言模型(LLMS)(CF(BSI,2024a)易于获得BSI的评论)以来,公众对AI存在的意识已广泛传播。 但是,自引入LLM之前,AI算法支持或自动执行决策过程。 Propublica的报告,即预测模型用于确定美国犯罪嫌疑人的累犯风险,受到了很大的关注(Angwin等,2016)。 在金融领域,基于AI的预测模型用于支持贷款申请的决定或预测金融市场的发展(Aziz等,2022)。 此外,使用基于AI的决策支持系统进行诊断和治疗患者的治疗,目前已在医学中进行了研究或部分实施(社论,2024年)(皇家放射学院,等,2023)(BSI,2024年)。 这些是高度敏感的领域,在这种领域中,错误的决定可能会对公民造成社会,法律,财务或健康损害。如今,每个与智能手机互动的人都与AI接触(Herget,2024)(Wired Insider,2021)。自从大型语言模型(LLMS)(CF(BSI,2024a)易于获得BSI的评论)以来,公众对AI存在的意识已广泛传播。但是,自引入LLM之前,AI算法支持或自动执行决策过程。Propublica的报告,即预测模型用于确定美国犯罪嫌疑人的累犯风险,受到了很大的关注(Angwin等,2016)。在金融领域,基于AI的预测模型用于支持贷款申请的决定或预测金融市场的发展(Aziz等,2022)。此外,使用基于AI的决策支持系统进行诊断和治疗患者的治疗,目前已在医学中进行了研究或部分实施(社论,2024年)(皇家放射学院,等,2023)(BSI,2024年)。这些是高度敏感的领域,在这种领域中,错误的决定可能会对公民造成社会,法律,财务或健康损害。
异质和非同质 无 同质和非同质 激光沿 -------------- 方向发射光。 各种 1 2 无 1 激光辐射具有 --------------- 相干度。 低 高中 非常低 高 时间不相干性是光束的特性 ----------- 单一 多重 a 和 b 以上都不是 单一 时间相干性的另一个名称是 ----------- 相干性 横向 空间 纵向 以上都不是 纵向 ----------- 是光泵浦稀土激光系统的最佳例子 钙离子 铒离子 铀离子 钕离子 钕离子 发现荧光量子效率接近 -------- 零 小于 1 1 大于 1 1 光束强度降至中心值的 1/e 倍的点称为 ---------- 内边 半边 全边 外边 外边
在本文中,我们研究了新哥本哈根(或“认识论实用主义”)对量子力学的主要解释之间的相似之处和差异,这些解释在这里被定义为拒绝量子态的本体论性质并同时避免隐藏变量,同时保持量子形式不变。我们认为,存在一个具有共同核心的单一通用解释框架,所有这些解释都致力于这个框架,因此它们可以被视为它的不同实例,其中一些差异主要是重点和程度的问题。然而,我们也发现了更实质性的剩余差异,并对它们进行了初步分析。我们还认为,这些剩余的差异无法在量子力学本身的形式主义中得到解决,并确定了可用于打破这种解释不确定性的更普遍的哲学考虑。
cw:CommonLit文章,解释器:CRISPR的工作原理,与文本有关的问题#1-7应得的:星期日,4/19说明:在Archie和CommonLit上向#'s 1-7发布答案。必须将答案作为Archie上的PDF提交。Archie指令:执行以下任一项:
© 编辑(如适用)和作者 2022。本书是开放获取出版物。开放获取 本书根据知识共享署名 4.0 国际许可证(http://creativecommons.org/licenses/by/4.0/)的条款获得许可,允许以任何媒体或格式使用、共享、改编、分发和复制,只要您给予原作者和来源适当的信用,提供知识共享许可证的链接并指明是否进行了更改。本书中的图像或其他第三方材料包含在本书的知识共享许可证中,除非在材料的致谢中另有说明。如果材料未包含在本书的知识共享许可证中,并且您的预期用途不被法定法规允许或超出允许用途,则您需要直接从版权所有者处获得许可。本出版物中使用一般描述性名称、注册名称、商标、服务标记等。即使没有具体声明,也不意味着这些名称不受相关保护法律和法规的约束,因此可以自由使用。出版商、作者和编辑可以放心地认为,本书中的建议和信息在出版之日是真实准确的。出版商、作者或编辑均不对此处包含的材料或可能出现的任何错误或遗漏提供明示或暗示的保证。出版商对已出版地图和机构隶属关系中的司法管辖权主张保持中立。
