1引言作为可解释的AI(XAI)的领域已经成熟,反对解释(CES)已成为解释AI模型的主要事后方法之一(例如,请参见,例如,参见,例如[Karimi等。,2022]用于概述)。ces通常被提倡作为为受到机器学习模型决定影响的个人提供追索权的一种手段。特别是,给定对M模型M的输入X,CE基本上向用户展示了一个新的,稍微修改的输入X',这表明如果将所做的更改应用于X,则如何实现不同的结果。为了插图,将虚构的贷款申请与功能收入£50 K,贷款期限为35个月,贷款金额£10 K被模型拒绝。在此示例中,CE可以证明将收入提高到55英镑将导致申请被接受。鉴于部署了CE的许多情况的批判性质,例如在财务或医疗环境中,他们提供的追索权是最重要的,即它给出了预期的结果变化,从而给予了信任。然而,最近的工作表明,在鲁棒性方面,获得CES的最新方法是获得主要缺点,即在不断变化的条件下,它们产生的CE的有效性。,特别是[Pawelczyk等。,2022年]表明,生成CE的流行方法可能会返回与对抗性例子没有区别的解释。广泛地说,这意味着CES
在最近的工作 [Wilcock 22a] 中,我们开发了可在知识图谱中搜索信息的对话式 AI 系统。我们将 Rasa 对话式 AI [Bocklisch 17] 和存储在 Neo4j 图形数据库 [Robinson 15] 中的知识图谱结合使用。最近 [Wilcock 22b] ,我们使用 Virtual Furhat 机器人 [Al Moubayed 12] 将社交机器人连接到这些系统。我们还向知识图谱添加了语义元数据,包括从 WikiData 中提取的分类 ( subclassOf ) 和部分 ( partOf ) 层次结构。我们现在旨在开发使用语义元数据生成更智能对话响应的方法。如果可能的话,如果用户询问机器人为什么给出某种响应,我们还将使用元数据生成简单的解释。使用语义元数据生成更智能的对话响应的想法并不新鲜。例如,在 2003 年 IJCAI 上,Milward 和 Beveridge 研究了“在多大程度上可以用通用对话系统组件和本体领域知识的组合来取代手工制作的对话设计” [Milward 03]。目的是从为一个特定领域手工制作的对话系统转变为更通用的对话系统,该系统不仅可以通过访问数据库中的领域事实,还可以访问每个领域的本体结构知识,从而与多个领域合作。作者提出了一系列交互示例,其中访问本体领域知识将使对话系统能够给出比没有手工制作更智能的响应。自 [Milward 03] 以来的二十年里,对话系统领域(现在称为对话式 AI [McTear 20])和本体领域知识数据库领域(现在称为知识图谱 [Hogan 21])都取得了很大进展。研究挑战在于如何开发对话式人工智能系统,利用知识图谱中日益丰富的特定领域语义背景。这将允许
本文探讨了为什么各国发动了如此多的网络攻击,却很少发起跨域行动(这里指网络和军事领域之间的行动)。我探讨了五种假设,以解释为什么大多数网络攻击不会与军事打击同时发生。我的分析表明,在这五种假设中,有两种是令人信服的。首先,国家攻击者出于基于内部分工的组织原因,做出不“跨域”的战略决策。其次,许多网络攻击者即使将网络和军事力量整合在一起,在跨域行动中仍面临重大技术挑战。其他三个原因不那么令人信服,包括对冲突升级的担忧、适用于网络空间的国际法以及网络空间行为规范。
干扰项解释:选项 A 不正确,因为尽管文章表明 O'Brien 和 Ahmed 得出的结论与其他研究人员不同,但它并没有使用 O'Brien 和 Ahmed 的研究来批评这些早期研究的开展方式或直接质疑这些研究结果的准确性。选项 B 不正确,因为尽管文章表明研究结果发现姿势和认知之间存在联系被夸大了,但它没有提供任何证据表明 O'Brien 和 Ahmed 的研究经常被误解。选项 C 不正确,因为文章表明尽管 O'Brien 和 Ahmed 对研究姿势和认知问题很感兴趣,但它并没有表明这些研究人员在进行研究之前的想法,也没有表明研究人员专门着手解决某个问题。
选项 A 不正确,因为在这种情况下“附着”的意思是连接或固定。文中指出 OSIRIS-REx 收集了 101955 Bennu 的碎片带回地球,但并未表明航天器在小行星上附着了任何东西。选项 C 不正确,因为在这种情况下“跟随”的意思是跟踪或在后面行驶,文中讨论了 OSIRIS-REx 与 101955 Bennu 的短暂相遇,在此期间航天器收集了样本带回地球。文中并没有表明航天器跟踪了样本,而且不清楚航天器在收集的样本后面行驶意味着什么。选项 D 不正确,因为在这种情况下“替换”的意思是放回或返回。文中指出 OSIRIS-REx 收集了 101955 Bennu 的碎片带回地球,但并未表明将任何东西返回到小行星。
EFRAG 的使命是通过在企业报告领域发展和推广欧洲观点,服务于欧洲公众在财务和可持续性报告方面的利益。EFRAG 以企业报告为基础并为其进步做出贡献。在其可持续性报告活动中,EFRAG 以在严格正当程序下制定的欧洲可持续性报告标准 (ESRS) 草案的形式向欧盟委员会提供技术建议,并支持 ESRS 的有效实施。EFRAG 在整个标准制定过程中寻求所有利益相关者的意见并获得有关特定欧洲情况的证据。其合法性建立在卓越、透明、治理、正当程序、公共问责和思想领导力的基础上。这使 EFRAG 能够令人信服、清晰和一致地发言,并被公认为企业报告中的欧洲声音和企业报告全球进步的贡献者。
政策解释是描述自主系统行为的过程,在有效地将代理商的决策理由与人类合作者联系起来,对于安全的现实世界部署至关重要。在有效的人类机器人团队中更为至关重要,良好的沟通允许团队通过在团队内实现价值一致性在不确定的情况下成功地适应和进步。本论文提出的提议是通过开发以人为以人为本的可解释的AI(XAI)技术来改善人机团队的,该技术使自主代理人能够通过多种方式来传达其cap骨和局限性,并教学和实现人类团队的行为作为决策Sys-tems-tems-tems-tems-tems-tems-tems-Tems和Manders belds buits ind buits int y hiri systyst in hri hri hri hri hri hi ri hri hi ri hi ri hi ri。
本文已由Efrag秘书处编写,在Efrag SRB的一次公开会议上进行讨论。本文构成了潜在EFRAG位置发展的早期阶段的一部分。因此,本文不代表Efrag的官方观点或Efrag SRB或Efrag SRB的任何个人。该论文可供使用,使公众能够遵循会议中的讨论。暂定决定是在公开场合做出的,并在EFRAG更新中进行了报告。eFrag职位作为评论信,讨论或职位论文或在这种情况下被认为适当的任何其他形式发表。已经起草了每个解释的内容,以提供特定技术问题的答案,并且不能通过类比直接扩展到其他事实模式。
模型是人工智能可解释性 (XAI) 的主要趋势之一,表明其缺乏可解释性和社会后果。我们使用代表性消费者小组来测试我们的假设,报告了三个主要发现。首先,我们表明,黑盒模型的事后解释往往会提供有关算法底层机制的部分和偏见信息,并且可能会通过转移用户的注意力而受到操纵或信息隐瞒。其次,除了自我报告的感知指标之外,我们还展示了经过测试的行为指标的重要性,以提供对可解释性维度的更全面的看法。本文有助于阐明本质上透明的人工智能模型与黑盒复杂模型的事后解释之间的实际理论争论——这场争论很可能在未来人工智能系统的发展和操作化中发挥重要作用。
大型语言模型越来越能够在相对较少的任务特定监督下生成流畅的文本。但这些模型能准确地解释分类决策吗?我们考虑使用人工编写的示例以少量方式生成自由文本解释的任务。我们发现 (1) 编写更高质量的提示会产生更高质量的生成; (2) 令人惊讶的是,在面对面的比较中,众包工作者通常更喜欢 GPT-3 生成的解释,而不是现有数据集中的众包解释。然而,我们的人类研究还表明,虽然模型通常会产生事实、语法和充分的解释,但它们在提供新信息和支持标签等方面还有改进空间。我们创建了一个管道,将 GPT-3 与一个监督过滤器相结合,该过滤器将来自人类的二元可接受性判断纳入循环中。尽管可接受性判断具有内在的主观性,但我们证明可接受性与解释的各种细粒度属性部分相关。我们的方法能够一致地过滤 GPT-3 生成的被人类认为可以接受的解释。
