虽然机器学习方法已经大大改善了教育研究的结果,但常见的缺陷在于结果的解释性。可解释的AI(XAI)旨在通过为分类决策提供透明的,概念上可以理解的解释,增强人类的理解和对外界的信任来填补这一空白。本文探讨了XAI的熟练程度和可读性评估方法,这些方法涵盖了一组465种语言复杂性测量。我们确定了将这些措施与不同水平的熟练程度和可读性相关联的理论描述,并使用使用监督的机器学习和Shapley添加性解释的交叉孔经验来验证它们。重申不仅强调了在葡萄牙人有效地熟练和可读性方面采取了多种复杂性措施的实用性,在能力分类任务中达到了0.70的最新精度,在可读性分类任务中的最先进的准确性为0.84,但它们很大程度上纠正了统一的研究,特别是在统计上,尤其是在supictions and-supictions interipical intercical intercripical intercripical intercrical interpical ne perxical ne perxical。
当今的算法已经在各个领域达到甚至超越了人类的任务表现。特别是,人工智能(AI)在组织与个人(例如其客户)之间的互动中发挥着核心作用,例如改变了电子商务或客户关系管理。然而,大多数人工智能系统仍然是难以理解的“黑匣子”——不仅对于开发人员,而且对于消费者和决策者也是如此(Meske 等人,2022 年)。对于电子市场而言,诸如试图管理风险和确保基于机器学习的电子交易系统符合监管要求等问题不仅源于其数据驱动的性质和技术复杂性,还源于其黑匣子性质,其中“学习”创造了
在这篇短文中,我们旨在将最近关于数据质量解释的研究与可解释的人工智能联系起来。我们首先描述了一些寻找查询结果解释的方法。例如,查询可能会提取数据中潜在的不一致或其他形式的肮脏,并且人们希望找到这些不一致的解释。这些解释对应于典型的问题,例如“什么数据是脏的?”,“为什么脏?”以及“特定数据如何导致整体肮脏?”。因此,它们以越来越精细的粒度解释查询结果。鉴于人工智能/机器学习方法在数据分析中的兴起,需要重新审视上述解释方法。事实上,查询现在变成了一个更复杂的数据分析任务。我们指出,本文并不是一项全面的调查。相反,我们的重点是提供一些关于这个普遍问题的见解,并确定几个有希望的研究方向。
© 编辑(如适用)和作者 2022。本书是开放获取出版物。开放获取 本书根据知识共享署名 4.0 国际许可证(http://creativecommons.org/licenses/by/4.0/)的条款获得许可,允许以任何媒体或格式使用、共享、改编、分发和复制,只要您给予原作者和来源适当的信用,提供知识共享许可证的链接并指明是否进行了更改。本书中的图像或其他第三方材料包含在本书的知识共享许可证中,除非在材料的致谢中另有说明。如果材料未包含在本书的知识共享许可证中,并且您的预期用途不被法定法规允许或超出允许用途,则您需要直接从版权所有者处获得许可。本出版物中使用一般描述性名称、注册名称、商标、服务标记等。即使没有具体声明,也不意味着这些名称不受相关保护法律和法规的约束,因此可以自由使用。出版商、作者和编辑可以放心地认为,本书中的建议和信息在出版之日是真实准确的。出版商、作者或编辑均不对此处包含的材料或可能出现的任何错误或遗漏提供明示或暗示的保证。出版商对已出版地图和机构隶属关系中的司法管辖权主张保持中立。
图2.Dodge 等人比较了四种类型的 XAI 特征。[29](对原始论文中的解释名称进行了小幅更新)以支持人们对 ML 模型的公平性判断,其中 ML 模型的用例执行再犯风险预测。对比解释(左上)侧重于被告需要如何改变才能被预测为低风险。与底部的两个全局解释相比,它更有效地揭示了不公平模型的个体公平问题——来自不同受保护群体的类似个体受到不同的对待。基于示例的解释可以通过揭示决策的矛盾性来表明公平性问题(只有 60% 的类似个人资料会再次犯罪)。
简介 近年来,人们对如何使人工智能系统对人类更加“可解释”或“可解释”的问题产生了浓厚的兴趣。然而,这些术语在文献中用于指代许多不同的目标 [10, 17, 19]。例如,可解释性方面的工作有时侧重于增强人类在心理上模拟和预测人工智能系统行为的能力 [16, 17, 22] 或评估反事实的能力 [27]。其他工作则探讨了帮助人类分解模型、理解其组成部分(例如参数)以及这些部分如何组合在一起的方法 [17]。从以人为本的角度来看,这些设计目标可以理解为支持不同的人类能力,每种能力在不同的现实世界环境中可能或多或少都有用。例如,在调试 AI 系统时,分解模型可能很有用。在决策环境中,识别可能影响模型可靠性的情况的能力可能更有帮助 [11, 20]。
学术图书馆可以采用证明和验证作为查询信息系统和资源的手段。这包括越来越多地本身就是机器学习系统或使用机器学习方法开发的收藏。将“收藏视为数据”的认可是朝着这个方向的一个重要转变。21 在适当的情况下,证明和验证应伴随机器学习衍生的内容和系统。图书馆还必须参与 XAI 作为授权,以评估现有、正在出现或必要的公共政策影响。目前,图书馆在这方面缺乏宣传。对政策和治理框架的要求提醒我们,机器学习“远非纯粹的机械,它深刻而不可避免地具有人性”22,虽然复杂且不透明,“但‘黑匣子’里充满了人。”23
人工智能和机器学习在地球观测 (EO) 和遥感领域无处不在。与它们在计算机视觉领域的成功相一致,它们已被证明可以在 EO 应用中获得高精度。然而,在将复杂的机器学习模型用于特定应用之前,EO 专家还应考虑其弱点。其中一个弱点是复杂的深度学习模型缺乏可解释性。本文回顾了地球观测领域已发表的可解释 ML 或可解释 AI 示例。可解释性方法分为:内在解释与事后解释、模型特定与模型无关、全局解释与局部解释,并提供了每种类型的示例。本文还确定了社会科学和即将出台的联合国教科文组织人工智能伦理监管建议以及欧盟人工智能法案草案中的关键可解释性要求,并分析了这些限制在 EO 领域是否得到充分解决。研究结果表明,对于哪些模型可以被视为可解释或不可解释尚不明确。 EO 应用通常使用随机森林作为“可解释的”基准算法来与复杂的深度学习模型进行比较,尽管社会科学明确指出大型随机森林不能被视为可解释的基准算法。其次,大多数解释针对的是领域专家,而不是算法的潜在用户、监管机构或可能受算法决策影响的人。最后,出版物往往只是提供解释,而没有通过目标受众测试解释的实用性。鉴于这些社会和监管方面的考虑,我们提供了一个框架来指导选择合适的机器学习算法,该框架基于是否有具有高预测精度的更简单的算法以及解释的目的和目标受众。
摘要 — 网络安全供应商不断将 AI(人工智能)应用于其解决方案,许多网络安全领域都可以从 AI 技术中受益。然而,黑盒 AI 技术在其操作员的理解和采用方面存在一些困难,因为他们的决策并不总是人类可以理解的(例如,深度神经网络通常就是这种情况)。由于 XAI(可解释人工智能)旨在让用户和开发人员更易于解释 AI 算法的操作,因此可以使用 XAI 来解决此问题。通过系统的文献综述,本文旨在调查 XAI 应用于网络安全的当前研究情况,旨在发现哪些 XAI 技术已经应用于网络安全,以及哪些网络安全领域已经从该技术中受益。索引术语 —XAI、可解释人工智能、可解释人工智能、网络安全、网络安全、检测和响应、入侵检测、入侵预防、网络风险、恶意软件
首先,我们研究了生成超级马里奥关卡的不同可能性。TOAD-GAN [ 3 ] 仅使用一个示例即可进行训练。该方法还使用户能够通过更改代表生成器网络输入的噪声向量来控制生成过程的输出。由于设计师无法解释噪声向量,因此设计师仍然无法根据自己的需求设计内容。为了实现这一点,必须让设计师能够解释噪声向量,并将噪声向量的不同区域映射到噪声向量变化所产生的内容。生成超级马里奥关卡的另一种方法是使用带有图块集的进化算法 [ 4 ]。图块集强制输出的一致性,而 Kullback-Leiber 散度