摘要摘要人工智能(AI)和深度学习(DL)技术已彻底改变了疾病的检测,尤其是在医学成像(MI)中。这些技术在图像分类中表现出出色的性能,但它们融入临床实践中仍然逐渐逐步。一个重大挑战在于深神经网络(DNN)模型的不透明度,该模型在不解释其结构的情况下提供了预测。缺乏透明度在医疗保健行业中构成了严重的问题,因为对自动化技术的信任对于医生,患者和其他利益相关者至关重要。担心自动驾驶汽车事故中的责任与与医学成像中深度学习应用相关的责任相当。误报和假否定性等错误会对患者的健康产生负面影响。可解释的人工智能(XAI)工具旨在通过为预测模型提供可理解的见解来解决这些问题。这些工具可以增强对AI系统的信心,加速诊断过程,并确保遵守法律要求。在推进技术应用的动机的驱动下,这项工作对可解释的AI(XAI)和深度学习(DL)技术进行了全面审查,该技术是针对生物医学成像诊断的。它检查了最新方法,评估其临床适用性,并突出了关键挑战,包括可解释性,可伸缩性和整合到医疗保健中。此外,审查还确定了XAI研究中新兴趋势和潜在的未来方向,并根据其适合各种诊断任务的技术提供了结构化的分类。这些发现对于寻求准确和可靠的诊断支持,解决监管和道德考虑的政策制定者以及旨在设计旨在平衡创新,安全性和临床透明度的系统的AI开发人员的医疗保健专业人员来说是无价的。
摘要人工智能(AI)纳入地球科学的整合已在空间建模和气候引起的危害评估的变革时代迎来了。这项研究探讨了可解释的AI(XAI)的应用,以解决传统的“ Black-Box” AI模型的固有局限性,从而强调了高风险领域(例如自然危害管理)中的透明度和可解释性。通过分析水文学危害(包括干旱,洪水和滑坡),这项工作突出了XAI提高预测准确性并促进可行见解的潜力越来越大。该研究综合了XAI方法论的进步,例如注意力模型,Shapley添加说明(SHAP)和广义添加剂模型(GAM)及其在空间危害预测和缓解策略中的应用。此外,该研究确定了数据质量,模型可传递性和实时解释性的挑战,这为将来的研究提出了途径,以增强XAI在决策框架中的效用。这一综合概述有助于在XAI采用XAI方面的弥合差距,在快速的环境变化时代,可以实现强大,透明和道德的方法来进行气候危害评估。
可解释人工智能 (XAI) 是一个快速发展的领域,旨在创建能够为其决策过程提供人类可理解的解释的 AI 系统。然而,这些解释仅依赖于模型和数据特定的信息。为了支持更好的人类决策,将领域知识集成到 AI 系统中有望增强理解和透明度。在本文中,我们提出了一种在对话系统中将 XAI 解释与领域知识相结合的方法。我们专注于源自计算论证领域的技术,将领域知识和相应的解释融入人机对话中。我们在原型系统中实现该方法以进行初步用户评估,其中用户与对话系统交互以从底层 AI 模型接收预测。参与者能够探索不同类型的解释和领域知识。我们的结果表明,当集成领域知识时,用户倾向于更有效地评估模型性能。另一方面,我们发现用户在对话交互过程中并不经常请求领域知识。
在高风险环境中部署人工智能 (AI) 系统需要可信赖的 AI。欧盟最近的指导方针和法规强调了这一关键要求,经合组织和联合国教科文组织的建议也强调了这一点,还有其他一些例子。可信赖 AI 的一个关键前提是必须找到能够提供可靠合理性保证的解释。本文认为,最著名的可解释 AI (XAI) 方法无法提供合理的解释,或者找到可能表现出显著冗余的解释。解决这些缺点的方法是提供形式严谨性保证的解释方法。这些正式解释不仅合理,而且保证无冗余。本文总结了形式化 XAI 这一新兴学科的最新发展。本文还概述了形式化 XAI 面临的现有挑战。
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.
XAI 计划假设机器学习性能(例如预测准确性)和可解释性之间存在内在矛盾,这一担忧与当时的研究结果一致。通常,性能最高的方法(例如深度学习)是最难解释的,而最易解释的方法(例如决策树)是最不准确的。该计划希望创建一个新的机器学习和解释技术组合,为未来的从业者提供更广泛的设计选项,涵盖性能-可解释性权衡空间。如果应用程序需要更高的性能,XAI 产品组合将包括更多可解释、高性能、深度学习技术。如果应用程序需要更高的可解释性,XAI 将包括性能更高、可解释的模型。
传统上,可解释的人工智能寻求提供高性能黑盒模型(例如深度神经网络)的解释和可解释性。由于此类模型的复杂性很高,因此对其进行解释仍然很困难。另一种方法是强制深度神经网络使用人类可理解的特征作为其决策的基础。我们使用岩石类型的自然类别域测试了这种方法。我们将使用 Resnet50 的迁移学习黑盒实现的性能与首先训练以预测专家识别的特征然后被迫使用这些特征对岩石图像进行分类的网络的性能进行了比较。这个特征约束网络的性能与无约束网络的性能几乎相同。此外,部分受限的网络被迫压缩为少数未使用专家特征进行训练的特征,这不会导致这些抽象特征变得可理解;尽管如此,可以发现这些特征的仿射变换与专家可理解的特征很好地一致。这些发现表明,让人工智能本质上可理解并不一定以牺牲性能为代价。© 2022 作者。由 ELSEVIER B.V. 出版。这是一篇根据 CC BY-NC-ND 许可开放获取的文章(https://creativecommons.org/licenses/by-nc-nd/4.0)由 KES International 科学委员会负责同行评审 关键词:不言自明的人工智能;深度神经网络;迁移学习;XAI;类别学习
摘要 — 在需求工程 (RE) 领域,可解释人工智能 (XAI) 在使 AI 支持的系统与用户需求、社会期望和监管标准保持一致方面的重要性日益得到认可。总体而言,可解释性已成为影响系统质量的重要非功能性需求。然而,可解释性和性能之间的权衡挑战了可解释性的假定积极影响。如果满足可解释性的要求会导致系统性能下降,那么必须仔细考虑哪些质量方面优先以及如何在它们之间妥协。在本文中,我们批判性地研究了所谓的权衡。我们认为,最好以一种细致入微的方式来解决这个问题,将资源可用性、领域特征和风险考虑结合起来。通过为未来的研究和最佳实践奠定基础,这项工作旨在推动 AI 的 RE 领域的发展。索引词 — 人工智能、AI、可解释性、可解释人工智能、性能、非功能性需求、NFR、XAI、权衡分析、准确性
图1。显着图和GCX解释结果的示例。图1.A显示了应用于AI-ECG的显着性图,在视觉上突出了T波,因为TAVE对AI-ECG的预测特别重要。在ECG痕迹下方的热图,范围从黑色到黄色,表明每个片段的重要性不同,T波标记为至关重要。图1.B引入了生成反事实XAI(GCX)方法,说明了反事实场景中每个主要的ECG特征如何影响AI的预测。与原始的ECG(黑线)相比,蓝线代表负反事实(CF)ECG,突出了T波幅度的增加和峰值T波幅度,QRS复合物的扩大和延长的PR间隔,并且P波平坦的影响AI-ECG的影响力预测结果。