摘要:人工智能 (AI) 是指能够执行通常需要人类智能才能完成的任务的计算机系统,例如视觉感知、语音识别、决策和语言翻译。人工智能技术的例子有机器学习、神经网络和深度学习。人工智能可以应用于许多不同的领域,例如计量经济学、生物统计、电子商务和汽车行业。近年来,人工智能也进入了医疗保健领域,帮助医生做出更好的决策(“临床决策支持”)、在磁共振图像中定位肿瘤、阅读和分析放射科医生和病理学家撰写的报告等等。然而,人工智能有一个很大的风险:它可能被视为一个“黑匣子”,限制了人们对其可靠性的信任,这在一个决定可能关系到生死的领域是一个非常大的问题。因此,可解释人工智能 (XAI) 一词的发展势头越来越强劲。XAI 试图确保人类能够理解人工智能算法(以及由此产生的决策)。在本篇叙述性评论中,我们将介绍 XAI 中的一些核心概念,描述医疗保健领域 XAI 面临的一些挑战,并讨论它是否真的可以帮助医疗保健发展,例如通过增加理解和信任。最后,讨论了增加对 AI 信任的替代方案,以及 XAI 领域未来的研究可能性。
摘要:人工智能 (AI) 是指能够执行通常需要人类智能才能完成的任务的计算机系统,例如视觉感知、语音识别、决策和语言翻译。人工智能技术的例子有机器学习、神经网络和深度学习。人工智能可以应用于许多不同的领域,例如计量经济学、生物统计、电子商务和汽车行业。近年来,人工智能也进入了医疗保健领域,帮助医生做出更好的决策(“临床决策支持”)、在磁共振图像中定位肿瘤、阅读和分析放射科医生和病理学家撰写的报告等等。然而,人工智能有一个很大的风险:它可能被视为一个“黑匣子”,限制了人们对其可靠性的信任,这在一个决定可能关系到生死的领域是一个非常大的问题。因此,可解释人工智能 (XAI) 一词的发展势头越来越强劲。XAI 试图确保人类能够理解人工智能算法(以及由此产生的决策)。在本篇叙述性评论中,我们将介绍 XAI 中的一些核心概念,描述医疗保健领域 XAI 面临的一些挑战,并讨论它是否真的可以帮助医疗保健发展,例如通过增加理解和信任。最后,讨论了增加对 AI 信任的替代方案,以及 XAI 领域未来的研究可能性。
认知科学关于人们如何理解解释的见解对于开发可解释人工智能 (XAI) 中以用户为中心的稳健解释颇具指导意义。我调查了人们在构建解释和从中做出推断时表现出的主要倾向,这些倾向与为人工智能系统提供决策自动解释有关。我首先回顾了人们在构建解释时表现出的一些倾向的实验发现,包括解释深度错觉、直觉解释与反思解释以及解释立场的证据。然后,我考虑了人们如何推理因果解释的发现,包括推理抑制、因果折扣和解释简单性的证据。我认为,XAI 努力的核心是要求人工智能系统提供的自动解释应该对人类用户有意义。
摘要 - 机器学习确定来自数据的模式,以加快决策过程。基于事实的决策和数据驱动的决策由行业专家指定。由于医疗保健中机器语言模型的持续增长,它们在ML模型中繁殖了连续的复杂性和黑匣子。为了使ML模型晶体清晰且可实现的解释,AI登录率很高。这项研究审查了印度医疗保健系统中可解释的AI和能力检测糖尿病。石灰和外形是两个用于实现可解释AI的库和软件包。密封的基础合并局部和全局可解释的方法,从而增强了复杂模型的结晶度,并从复杂模型中获得了对公平性的直觉。此外,所获得的直觉还可以促进临床数据科学家计划对计算机辅助诊断的更奇怪的组成。XAI对预测顽固疾病的重要性。 在这种情况下,顽固的糖尿病,血浆与胰岛素与胰岛素之间的相关性,年龄与妊娠,类(糖尿病和非糖尿病患者)与血浆葡萄糖的相关性持续存在着牢固的关系。 具有塑形值的PIMD(PIMA印度糖尿病数据集)用于简洁依赖性,而当同时需要特征的锚定和重要性时,石灰是适用的。 依赖图可帮助医生可视化与预测疾病的独立关系。 要识别不同属性的依赖性,使用相关热图。XAI对预测顽固疾病的重要性。在这种情况下,顽固的糖尿病,血浆与胰岛素与胰岛素之间的相关性,年龄与妊娠,类(糖尿病和非糖尿病患者)与血浆葡萄糖的相关性持续存在着牢固的关系。具有塑形值的PIMD(PIMA印度糖尿病数据集)用于简洁依赖性,而当同时需要特征的锚定和重要性时,石灰是适用的。依赖图可帮助医生可视化与预测疾病的独立关系。要识别不同属性的依赖性,使用相关热图。从学术的角度来看,Xai在不久的将来对成熟是必不可少的。估算了其他适用数据集对应研究的介绍,这是非常学徒的。
摘要 — 可解释人工智能 (XAI) 领域的一大挑战是如何评估可解释性方法。已经提出了许多评估方法 (EM),但尚未建立黄金标准。几位作者根据 EM 本身的特点将可解释性方法的 EM 分为几类(例如,基于启发式、以人为本、基于应用、基于功能)。在本愿景论文中,我们提出也可以根据 EM 所针对的 XAI 过程的各个方面对 EM 进行分类。基于阐明 XAI 中主要过程的模型,我们提出存在解释信息 EM、理解 EM 和需求 EM。这种新颖的观点旨在通过较少关注 EM 本身而是关注可解释性方法想要实现的目标(即提供良好的解释信息、促进理解、满足社会需求)来增强其他作者的观点。我们希望这两种观点的结合能让我们更全面地评估可解释性方法的优缺点,帮助我们做出更明智的决定,决定使用哪种方法或如何改进它们。索引术语——可解释性、可解释人工智能、XAI、评估、评估方法、指标、研究
摘要 — 在需求工程 (RE) 领域,可解释人工智能 (XAI) 在使 AI 支持的系统与用户需求、社会期望和监管标准保持一致方面的重要性日益得到认可。总体而言,可解释性已成为影响系统质量的重要非功能性需求。然而,可解释性和性能之间的权衡挑战了可解释性的假定积极影响。如果满足可解释性的要求会导致系统性能下降,那么必须仔细考虑哪些质量方面优先以及如何在它们之间妥协。在本文中,我们批判性地研究了所谓的权衡。我们认为,最好以一种细致入微的方式来解决这个问题,将资源可用性、领域特征和风险考虑结合起来。通过为未来的研究和最佳实践奠定基础,这项工作旨在推动 AI 的 RE 领域的发展。索引词 — 人工智能、AI、可解释性、可解释人工智能、性能、非功能性需求、NFR、XAI、权衡分析、准确性
a 信息实验室(InfoLab),电气与计算机工程系,信息与通信工程学院,成均馆大学,水原 16419,韩国 b 信息实验室(InfoLab),计算机科学与工程系,计算机与通信工程学院韩国成均馆大学信息学系,水原 16419,韩国 c 加拉拉大学计算机科学与工程学院,苏伊士 435611,埃及 d 本哈大学计算机与人工智能学院信息系统系,巴哈 13518,埃及和知识可视化分析实验室(VIS2KNOW 实验室),应用人工智能系,计算机与信息学院,成均馆大学,首尔 03063,韩国 f 圣地亚哥德孔波斯特拉大学单一技术研究中心 (CiTIUS),Rue de Dominguez la Fuente,s /n, 15782 圣地亚哥德孔波斯特拉,拉科鲁尼亚,西班牙 g 帕多瓦大学“Tullio Levi-Civita”数学系,帕多瓦 35121,意大利 h 比萨大学计算机科学系,比萨 56127,意大利 i TECNALIA,巴斯克研究中心和技术联盟 (BRTA),48160 德里奥,西班牙 j 巴斯克大学 (UPV/EHU) 通信工程系,48013 毕尔巴鄂,西班牙 k 安达卢西亚科学与数据计算智能研究所计算机科学与人工智能系(DaSCI),格拉纳达大学,格拉纳达 18071,西班牙
局部可解释和模型无关解释 (LIME) 是一种可解释的人工智能 (XAI) 方法,用于识别智能磨削过程中预测平均表面粗糙度 (Ra) 的全局重要时频带。智能磨削装置包括一台 Supertech CNC 精密表面磨床,配备一个 Dytran 压电加速度计,沿切线方向 (Y 轴) 安装在尾座主轴上。每次磨削时,都会捕获振动特征,并使用 Mahr Marsurf M300C 便携式表面粗糙度轮廓仪记录地面真实表面粗糙度值。在整个实验中,粗糙度值范围为 0.06 至 0.14 微米。提取磨削过程中收集的每个振动信号的时间频域频谱图帧。建模卷积神经网络 (CNN) 以基于这些频谱图帧及其图像增强来预测表面粗糙度。最佳 CNN 模型能够预测粗糙度值,总体 R2 分数为 0.95,训练 R2 分数为 0.99,测试 R2 分数为 0.81,仅使用 80 组振动信号(对应 4 次实验,每次 20 次试验)。虽然数据量不足以保证在现实场景中达到这样的性能指标,但可以提取这些复杂的深度学习模型捕获的关系背后的统计一致的解释。在开发的表面粗糙度 CNN 模型上实施了 LIME 方法,以识别影响预测的重要时频带(即频谱图的超像素)。基于在频谱图帧上确定的重要区域,确定了影响表面粗糙度预测的相应频率特性。基于 LIME 结果的重要频率范围约为 11.7 至 19.1 kHz。通过基于重要频率范围并考虑奈奎斯特标准将采样率从 160 kHz 降低到 30、20、10 和 5 kHz,证明了 XAI 的强大功能。通过仅提取低于其相应奈奎斯特截止值的时间频率内容,为这些范围开发了单独的 CNN 模型。通过比较模型性能提出了一种适当的数据采集策略,以论证选择足够的采样率来成功且稳健地捕捉磨削过程。© 2023 制造工程师协会 (SME)。由 Elsevier Ltd. 出版。保留所有权利。这是一篇根据 CC BY-NC-ND 许可开放获取的文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)由 NAMRI/SME 科学委员会负责同行评审。关键词:卷积神经网络;可解释机器学习;XML;可解释人工智能;XAI;局部可解释和模型无关解释;LIME;表面粗糙度;表面磨削;光谱图
摘要。包括Yolov4和Yolov5在内的Yolo系列对象检测算法在各种医学诊断任务中表现出卓越的表现,在某些情况下超过了人类的能力。但是,他们的黑盒性质限制了他们在需要模型决策的信任和解释性的医学应用中的采用。为了解决这个问题,已经以热图的形式提出了对AI模型的视觉解释,该模型突出了输入区域中最大程度贡献特定决策的输入区域。基于梯度的方法,例如Grad-CAM [1]和非基于梯度的方法,例如EIGEN-CAM [2],适用于Yolo模型,不需要新的层实现。本文评估了Grad-CAM和EIGEN-CAM在Vindrcxr胸部X射线异常检测数据集上的性能[3],并讨论了这些方法的局限性,以向数据科学家解释模型决策。
7.此外,2021 年,欧洲议会提出了《人工智能法案》(AI Act),以规范欧盟的人工智能使用。这项拟议法规为人工智能系统制定了监管框架,包括道德发展、透明度、安全性和准确性的要求,以及治理和监督系统。《人工智能法案》将人工智能应用分为不同风险等级(不可接受的做法、高风险系统以及低风险或有限风险系统),并规定了高风险系统的透明度和人工监督要求,这些要求将在整个联盟范围内执行。这可能会引发适应该法规的举措,包括全面的模型文档、可解释性技术、监控仪表板和模型警报。