效率的提高是以不透明性和偏见为代价的 [1, 21, 29]。人们越来越关注透明度和解释,以发现和减轻机器学习算法引入的偏见和错误。在这些解释方法中,基于代理的模型解释(现在称为代理解释)是最常用的 [16]。代理方法训练代理来模仿分类器的结果。选择此代理是因为其设计简单、高度透明且易于理解。在他们的调查中,Bodria 等人 [6] 将代理解释分为三类:(a)特征归因,(b)规则和(c)基于示例的解释。每个解释都有不同的目的(本文首先提出),最终影响解释的生成方式和呈现给用户的方式。
摘要:人工智能 (AI) 带来了巨大的机遇,但也可能带来重大风险。自动生成的决策解释可以提高透明度并增进信任,尤其是对于基于 AI 模型自动预测的系统。但是,考虑到创建不诚实 AI 的经济激励,我们在多大程度上可以信任解释?为了解决这个问题,我们的工作研究了如何使用 AI 模型(即深度学习和现有的提高 AI 决策透明度的工具)来创建和检测欺骗性解释。作为一项实证评估,我们专注于文本分类并改变由 GradCAM(一种成熟的神经网络解释技术)生成的解释。然后,我们在一项有 200 名参与者的实验中评估了欺骗性解释对用户的影响。我们的研究结果证实,欺骗性解释确实可以欺骗人类。但是,如果有足够的领域知识,可以部署机器学习 (ML) 方法来检测看似微不足道的欺骗企图,准确率超过 80%。即使没有领域知识,只要具备所审查预测模型的基本知识,人们仍然能够以无监督的方式推断出解释中的不一致性。
背景:量子计算是一种快速发展的新编程范式,它为算法的设计和实现带来了重大变化。理解量子算法需要物理和数学知识,这对软件开发人员来说可能具有挑战性。目的:在这项工作中,我们首次分析了 LLM 如何支持开发人员理解量子代码。方法:我们使用两种不同的人工编写提示风格,对七种最先进的量子算法,通过实证分析和比较三种广泛采用的 LLM(Gpt3.5、Llama2 和 Tinyllama)提供的解释质量。我们还分析了 LLM 解释在多轮中的一致性以及 LLM 如何改进现有的量子算法描述。结果:Llama2 从头开始提供最高质量的解释,而 Gpt3.5 成为最适合改进现有解释的 LLM。此外,我们表明,在提示中添加少量上下文可以显着提高解释的质量。最后,我们观察了解释在多轮中在质量和句法上如何保持一致。结论:这项工作突出了有希望的结果,并为未来在量子代码解释的 LLM 领域的研究提出了挑战。未来的工作包括通过快速优化和解析量子代码解释来改进方法,以及对解释的质量进行系统评估。
为什么解释未能提高人类的表现?虽然这是一个很难回答的问题,但现有的结果提供了一些线索。首先,Lai 等人 (2020) 指出了两种不同类型的人工智能学习问题:模拟人类技能与发现新知识 [ 10 ]。他们推测,在后一种情况下,人类可能没有足够强的任务直觉来有效利用简单的解释,从而需要额外的训练 [ 10 ]。即使在模拟任务中,模型也可能会偶然学习到与人类直觉不太吻合的模式,正如 Feng 等人 (2018) 在用于情绪分析的 LSTM 模型中观察到的那样 [ 4 ]。与其他模型相比,解释可能更适合捕捉某些类型的模型错误:Carton 等人 (2019) 发现,解释可能更适合捕捉某些类型的模型错误。 (2020) 观察到它们减少了假阳性,同时增加了假阴性,推测受试者发现推翻被错误识别为有毒的短语比发现模型遗漏的真正有毒的短语更容易 [ 3 ]。
摘要:人工智能系统设计的一个关键挑战是如何帮助人们理解它们。我们通过将解释定位在日常生活中,置于人与人工智能代理之间的持续关系中来应对这一挑战。通过非人类设计重新定位可解释性,我们呼吁一种新方法,将人和人工智能代理都视为构建理解的积极参与者。为了阐明这种方法,我们首先回顾了解释人工智能前提的假设。然后,我们概念化了从解释到共享理解的转变,我们将其描述为情境化、动态化和表演性。最后,我们提出了两种支持共享理解的设计策略,即纵观人工智能和揭露人工智能的失败。我们认为这些策略可以帮助设计师揭示人工智能隐藏的复杂性(例如,位置性和基础设施),从而支持人们在自己的生活背景下理解代理的能力和局限性。
选择A是不正确的,因为“数量”是指某些数量或数量。文本讨论了不同的萤火虫物种如何以独特的序列产生闪光和暂停,从而帮助其物种的其他成员找到它们,但它并未提及这些序列中使用的闪光数量。选择B是不正确的,因为在这种情况下,“装饰”意味着使物体更美丽的事物。尽管可以说萤火虫闪光很漂亮,但文本集中在以下事实上:萤火虫使用这些独特的闪光序列来查找自己物种的其他成员,而不是闪光使萤火虫更加美丽。选择D是不正确的,因为在这种情况下,“协议”将指出个人已经讨论并达成共识的交易。由于萤火虫无法达成此类协议,因此使用此词来指代他们闪烁的信号是没有意义的。
本文探讨了为什么各国发动了如此多的网络攻击,却很少发起跨域行动(这里指网络和军事领域之间的行动)。我探讨了五种假设,以解释为什么大多数网络攻击不会与军事打击同时发生。我的分析表明,在这五种假设中,有两种是令人信服的。首先,国家攻击者出于基于内部分工的组织原因,做出不“跨域”的战略决策。其次,许多网络攻击者即使将网络和军事力量整合在一起,在跨域行动中仍面临重大技术挑战。其他三个原因不那么令人信服,包括对冲突升级的担忧、适用于网络空间的国际法以及网络空间行为规范。
解释人工智能的决策已成为一个重要的研究课题。使用深度学习进行图像分类取得了长足的进步(Krizhevsky 等人,2012 年;LeCun 等人,2015 年),引起了人们对解释图像分类结果的浓厚兴趣。尽管可解释人工智能 (XAI) 有许多应用,但本文首先关注学习对图像进行分类。然后,我们讨论可解释人工智能的更广泛含义。最近的会议包括有关可解释人工智能的教程和研讨会。有几项关于 XAI 的很好的调查(Chakraborty 等人,2017 年和 Došilović 等人,2018 年)。这不是其中之一。相反,在与放射学和眼科学专家以及鸟类识别专家一起研究问题之后,我们得出结论,现有技术仍有很大改进空间。该领域需要更多的方向和方法,包括明确 XAI 的目标,特别是在用户、专家和图像分类方面。尽管 XAI 的一些最初目标是“向人类用户解释他们的决定和行动”(Gunning & Aha,2018),但目前最先进的技术是以开发人员为中心,而不是以用户为中心。解释图像分类的主要方法是为图像上叠加的显着图或热图上的像素或区域分配重要性分数,用颜色尺度(红色、橙色、黄色……)可视化区域的重要性。为创建热图而开发的方法包括遮挡灵敏度(Zeiler &
解释AI的决定已成为一个重要的研究主题。使用深度学习(Krizhevsky等,2012; Lecun等,2015)在图像分类方面取得了很大进展,对解释图像分类的结果产生了重大兴趣。尽管有许多可解释的AI(XAI)的信息,但本文首先着重于学习对图像进行分类。然后,我们讨论可解释AI的更广泛的信息。最近的会议包括有关可解释AI的教程和讲习班。XAI有几项好的调查(Chakraborty等人。,2017&došilović等,2018)。这不是其中之一。取而代之的是,在与放射学和眼科专家解决问题以及鸟类识别方面的问题之后,我们得出的结论是,现有的技术留出了很大的改进空间。该领域需要其他方案和方法,包括澄清XAI的目标,尤其是在用户,专家和图像分类方面。尽管Xai的一些最初目标是“向人类用户解释他们的决策和行动”(Gunning&Aha,2018),但最新的最新目前是以开发人员为中心的,而不是以用户为中心。解释图像分类的主要方法是将重要性得分分配给图像上的显着图或区域上的像素或区域,以形象化区域的重要性(红色,橙色,黄色…)。为创建热图开发的方法包括遮挡灵敏度(Zeiler&
政策解释是描述自治系统行为的过程,在有效地将代理商的决策理由与人类合作者联系起来,对安全现实世界的部署至关重要。在有效的人类机器人团队中更为至关重要,良好的沟通允许团队通过在团队内实现价值一致性在不确定的情况下成功地适应和进步。本论文提出的提议是通过开发以人为以人为本的可解释的AI(XAI)技术来改善人机团队的,该技术使自主代理人能够通过多种方式来传达其cap骨和局限性,并教学和实现人类团队的行为作为决策Sys-tems-tems-tems-tems-tems-tems-tems-Tems和Manders belds buits ind buits int y hiri systyst in hri hri hri hri hri hi ri hri hi ri hi ri hi ri。