➢这是一个欺骗深神经网络(DNN)的实验:在第二和第四张图像中,工程师仅保留了系统用于识别吉他和企鹅的系统的元素,并更改了其余的所有内容,以使系统仍然像吉他和企鹅一样“看到”他们。➢Goodfellow等人的作品。(2014)从普遍的扰动开始打开了进一步发展的大门(Moosavi-Dezfooli等人。2017)最近的一个像素攻击,该攻击显示了如何通过在输入图像中更改一个像素来欺骗神经网络。笔记本在这里一张像素攻击原始纸
摘要 机器学习 (ML) 越来越多地融入各个领域的决策制定,引发了人们对道德、合法性、可解释性和安全性的担忧,凸显了人类监督的必要性。作为回应,可解释人工智能 (XAI) 应运而生,它通过提供对 ML 模型决策的洞察,并让人类了解底层逻辑,从而成为一种增强透明度的手段。尽管现有的 XAI 模型具有潜力,但通常缺乏实用性,无法提高人机性能,因为它们可能会引入过度依赖等问题。这强调了以人为本的 XAI 需要进一步研究,以提高当前 XAI 方法的可用性。值得注意的是,目前的大部分研究都集中在 XAI 与个体决策者之间的一对一互动上,忽视了现实世界场景中人类群体使用 XAI 进行集体决策协作的多对一关系的动态。在这项最新工作中,我们借鉴了以人为中心的XAI研究的当前成果,并讨论了如何将XAI设计过渡到群体AI交互。我们讨论了XAI从人机交互过渡到群体AI交互的四个潜在挑战。本文有助于推动以人为中心的XAI领域的发展,促进群体XAI交互的讨论,呼吁在该领域进一步研究。关键词 可解释AI,群体AI交互,交互设计
摘要。人工智能 (AI) 可以为公共行政部门提供巨大潜力,而公共行政部门在未来几年可能会面临严重的技能短缺。人工智能系统尤其可以支持流程自动化,从而减轻行政人员的负担。由于透明度和公平性在行政流程中发挥着重要作用,可解释的人工智能 (XAI) 方法有望使人工智能在公共管理中得到适当使用。在本文中,我们研究了 XAI 在支持税务机关流程方面的潜力,特别是税务审计目标组织的选择。我们说明了相关的税务审计场景,并介绍了我们目前在这些场景中开发的不同 XAI 技术的潜力。这表明 XAI 可以显著支持税务审计准备,从而使流程更高效,税务机关在其主要职责方面的表现更好。本文的另一个贡献在于在公共管理环境中对 XAI 使用指南进行了示范性应用。
AI 被描述为“黑匣子”,这意味着得出其提供的结果的内部算法计算非常不透明 (Rai, 2020)。Doran、Schulz 和 Besold (2017) 对 xAI 给出了多方面的定义,即“不透明的技术,不解释其算法机制;可解释的系统,用户可以用数学方法分析其算法机制;可理解的系统,显示符号,向用户解释如何得出结论”(第 1 页)。现有研究 (例如Holzinger, 2018) 探讨了如何利用 AI 技术帮助企业做出更明智、更快的决策。然而,关于此类 AI 技术的“可解释性”因素的实证研究很少,而这些因素促使企业采用这些技术。这在撒哈拉以南非洲 (SSA) 尤其需要,因为那里人工智能的使用正在迅速增长,但监管仍不完善。
摘要。包括Yolov4和Yolov5在内的Yolo系列对象检测算法在各种医学诊断任务中表现出卓越的表现,在某些情况下超过了人类的能力。但是,他们的黑盒性质限制了他们在需要模型决策的信任和解释性的医学应用中的采用。为了解决这个问题,已经以热图的形式提出了对AI模型的视觉解释,该模型突出了输入区域中最大程度贡献特定决策的输入区域。基于梯度的方法,例如Grad-CAM [1]和非基于梯度的方法,例如EIGEN-CAM [2],适用于Yolo模型,不需要新的层实现。本文评估了Grad-CAM和EIGEN-CAM在Vindrcxr胸部X射线异常检测数据集上的性能[3],并讨论了这些方法的局限性,以向数据科学家解释模型决策。
可解释人工智能 (XAI) 在使人类理解和信任深度学习系统方面发挥着至关重要的作用。随着模型变得越来越大、越来越普遍,并且在日常生活的各个方面都无处不在,可解释性对于最大限度地减少模型错误的不利影响是必不可少的。不幸的是,以人为中心的 XAI 中的当前方法(例如医疗保健、教育或个性化广告中的预测任务)倾向于依赖于单个事后解释器,而最近的研究发现,当应用于相同的底层黑盒模型实例时,事后解释器之间存在系统性分歧。因此,在本文中,我们呼吁采取行动来解决当前最先进解释器的局限性。我们建议从事后可解释性转向设计可解释的神经网络架构。我们确定了以人为中心的 XAI 的五个需求(实时、准确、可操作、人类可解释和一致),并提出了两种可解释设计神经网络工作流程的方案(使用 InterpretCC 进行自适应路由和使用 I2MD 进行时间诊断)。我们假设以人为中心的 XAI 的未来既不在于解释黑匣子,也不在于恢复传统的可解释模型,而在于本质上可解释的神经网络。
摘要 — 人工智能 (AI) 在社会中发挥着重要作用,包括如何做出至关重要、往往改变生活的决定。因此,近年来,人们对可解释人工智能 (XAI) 的兴趣日益浓厚,它是一种揭示通常被描述为黑匣子中的流程和操作的手段,黑匣子是一个通常不透明的系统,其决策难以被最终用户理解。本文介绍了一个有 20 名参与者(计算机科学和平面设计专业学生)参加的设计思维研讨会的结果,我们试图调查用户在与 AI 系统交互时的心理模型。参与者使用两个角色,被要求同情 AI 驱动的招聘系统的两个最终用户,识别用户体验中的痛点并构思这些痛点的可能解决方案。这些任务用于探索用户对 AI 系统的理解、AI 系统的可理解性以及如何向最终用户解释这些系统的内部工作原理。我们发现,视觉反馈、分析和比较、特征突出显示以及事实、反事实和主要推理解释可用于改善用户对人工智能系统的心理模型。
摘要:人工智能 (AI) 是指能够执行通常需要人类智能才能完成的任务的计算机系统,例如视觉感知、语音识别、决策和语言翻译。人工智能技术的例子有机器学习、神经网络和深度学习。人工智能可以应用于许多不同的领域,例如计量经济学、生物统计、电子商务和汽车行业。近年来,人工智能也进入了医疗保健领域,帮助医生做出更好的决策(“临床决策支持”)、在磁共振图像中定位肿瘤、阅读和分析放射科医生和病理学家撰写的报告等等。然而,人工智能有一个很大的风险:它可能被视为一个“黑匣子”,限制了人们对其可靠性的信任,这在一个决定可能关系到生死的领域是一个非常大的问题。因此,可解释人工智能 (XAI) 一词的发展势头越来越强劲。XAI 试图确保人类能够理解人工智能算法(以及由此产生的决策)。在本篇叙述性评论中,我们将介绍 XAI 中的一些核心概念,描述医疗保健领域 XAI 面临的一些挑战,并讨论它是否真的可以帮助医疗保健发展,例如通过增加理解和信任。最后,讨论了增加对 AI 信任的替代方案,以及 XAI 领域未来的研究可能性。
摘要 — 可解释人工智能 (XAI) 领域的一大挑战是如何评估可解释性方法。已经提出了许多评估方法 (EM),但尚未建立黄金标准。几位作者根据 EM 本身的特点将可解释性方法的 EM 分为几类(例如,基于启发式、以人为本、基于应用、基于功能)。在本愿景论文中,我们提出也可以根据 EM 所针对的 XAI 过程的各个方面对 EM 进行分类。基于阐明 XAI 中主要过程的模型,我们提出存在解释信息 EM、理解 EM 和需求 EM。这种新颖的观点旨在通过较少关注 EM 本身而是关注可解释性方法想要实现的目标(即提供良好的解释信息、促进理解、满足社会需求)来增强其他作者的观点。我们希望这两种观点的结合能让我们更全面地评估可解释性方法的优缺点,帮助我们做出更明智的决定,决定使用哪种方法或如何改进它们。索引术语——可解释性、可解释人工智能、XAI、评估、评估方法、指标、研究
摘要:人工智能 (AI) 是指能够执行通常需要人类智能才能完成的任务的计算机系统,例如视觉感知、语音识别、决策和语言翻译。人工智能技术的例子有机器学习、神经网络和深度学习。人工智能可以应用于许多不同的领域,例如计量经济学、生物统计、电子商务和汽车行业。近年来,人工智能也进入了医疗保健领域,帮助医生做出更好的决策(“临床决策支持”)、在磁共振图像中定位肿瘤、阅读和分析放射科医生和病理学家撰写的报告等等。然而,人工智能有一个很大的风险:它可能被视为一个“黑匣子”,限制了人们对其可靠性的信任,这在一个决定可能关系到生死的领域是一个非常大的问题。因此,可解释人工智能 (XAI) 一词的发展势头越来越强劲。XAI 试图确保人类能够理解人工智能算法(以及由此产生的决策)。在本篇叙述性评论中,我们将介绍 XAI 中的一些核心概念,描述医疗保健领域 XAI 面临的一些挑战,并讨论它是否真的可以帮助医疗保健发展,例如通过增加理解和信任。最后,讨论了增加对 AI 信任的替代方案,以及 XAI 领域未来的研究可能性。