1 英国曼彻斯特大学曼彻斯特学术健康科学中心健康信息学中心、信息学、成像和数据科学部、2 英国曼彻斯特大学曼彻斯特学术健康科学中心健康科学学院 NIHR 大曼彻斯特患者安全转化研究中心、3 英国曼彻斯特大学健康科学学院药学和验光部、4 英国曼彻斯特大学健康科学学院人口健康、卫生服务研究和初级保健部、5 美国明尼苏达州圣保罗杰斐逊中心、6 英国威姆斯洛信息专员办公室、7 英国曼彻斯特大学法学院、人文学院、8 英国曼彻斯特公民陪审团 CIC
由于在线共享的信息量不断增加以及生成式人工智能 (AI) 的作用,人工验证变得非常具有挑战性。因此,人工智能系统用于在线识别虚假信息和深度造假。先前的研究表明,将人工智能与人类专业知识相结合时可以观察到卓越的性能。此外,根据欧盟人工智能法案,在可能影响基本人权(例如言论自由权)的领域使用人工智能系统时,人类监督是不可避免的。因此,人工智能系统需要透明并提供足够的解释才能被理解。已经进行了大量研究以整合可解释性 (XAI) 特征来提高人工智能系统的透明度;然而,它们缺乏以人为本的评估。此外,解释的意义因用户的背景知识和个人因素而异。因此,本研究实施了以人为本的评估方案,以评估人机协作虚假信息检测任务的不同 XAI 特征。在此,客观和主观评价维度(例如性能、感知有用性、可理解性和对 AI 系统的信任度)用于评估不同的 XAI 特征。进行了一项用户研究,总共有 433 名参与者,其中 406 名众包工作者和 27 名记者作为专家参与检测虚假信息。结果表明,自由文本解释有助于提高非专家的表现,但不会影响专家的表现。XAI 特征提高了对 AI 系统的感知有用性、可理解性和信任度,但它们也可能导致众包工作者在 AI 系统的预测错误时盲目信任它。
1,2技术科学学院 - Sebha 3高级技术工程研究所 - Sebha摘要:随着人工智能(AI)继续推动各个领域的进步,AI模型中对解释性的需求变得越来越重要。许多最先进的机器学习模型,尤其是深度学习体系结构,都是“黑匣子”,使他们的决策过程难以解释。可解释的AI(XAI)旨在提高模型透明度,确保AI驱动的决策是可以理解的,可信赖的,并且与道德和监管标准保持一致。本文探讨了AI解释性的不同方法,包括本质上可解释的模型,例如决策树和逻辑回归,以及诸如Shap(Shapley添加说明)和Lime(局部可解释的模型 - 敏捷的解释)之类的事后方法。此外,我们讨论了解释性的挑战,包括准确性和可解释性之间的权衡,可伸缩性问题以及特定领域的要求。本文还重点介绍了XAI在医疗保健,金融和自治系统中的现实应用。最后,我们研究了未来的研究方向,强调了混合模型,因果解释性和人类协作。通过培养更容易解释的AI系统,我们可以增强数据科学应用程序中的信任,公平性和问责制。关键字:可解释的AI(XAI),可解释性,机器学习,黑盒模型,模型透明度,摇摆,石灰,道德AI,可信赖的AI,事后解释性,偏置缓解性,调节性,监管合规性,人类 - ai相互作用。
摘要:随着解释机器学习(ML)模型的兴趣越来越多,本文综合了许多与ML解释性相关的主题。我们将解释性与解释性,本地解释性以及功能重要性与功能相关性区分开。我们演示和可视化不同的解释方法,如何解释它们,并提供完整的Python软件包(Scikit-templain),以允许未来的研究人员和模型开发人员探索这些解释能力方法。解释性方法包括Shapley添加性解释(SHAP),Shapley添加剂全球解释(SAGE)和累积的局部效应(ALE)。我们的重点主要放在基于沙普利的技术上,这些技术是增强模型解释性的各种现有方法的统一框架。例如,制造一致的方法,例如可解释的模型 - 不合Snostic解释(lime)和树解释器,用于局部解释性,而鼠尾草则统一了对全球解释性的置换重要性的不同变化。我们提供了一个简短的教程,用于使用三个不同数据集解释ML模型:用于对流的模型数据集用于恶劣天气预测,一个用于子冷冻道路表面预测的幕后数据集,以及用于雷电预测的基于卫星的数据。此外,我们还展示了相关特征对模型的解释性的不利影响。最后,我们演示了评估特征组的模型图案而不是单个特征的概念。评估特征组可减轻特征相关性的影响,并可以对模型提供更全面的理解。本研究中使用的所有代码,模型和数据都可以自由使用,以加速大气和其他环境科学中的机器学习解释性。
如前所述,谎言被用来为拟议改进之前和之后的模型预测提供解释。没有细化,解释显示出次优的肿瘤节覆盖率,平均仅为32.41%。在引入改进机制后,使用了三种不同的技术(Canny,Laplace,Otsu的阈值)用于生产脑面膜。为了确定生成有意义解释的最佳段数,我们探索了使用精制的石灰图像解释器选择最佳的1、3和5段的影响。检查肿瘤细分市场的覆盖范围,我们发现依靠单个细分市场的平均覆盖率为27.63%,非常类似于挑选最佳3个细分市场而没有我们的细化的表现。选择最佳的3个细分市场时,观察到了实质性的改进,平均增加到50.28%。采用5个部分的肿瘤覆盖率为63.84%。
机器学习和人工智能 (ML/AI) 模型性能的不断提高,使得它们在日常生活中越来越常见,包括临床医学 (Bruckert 等人; Rosenfeld 等人,2021 年)。虽然对 ML/AI 工具不透明的“黑匣子”性质的担忧并不是什么新鲜事,但随着 ML/AI 设备从实验室转移到尚未完全赶上最先进水平的监管流程 (Benrimoh 等人,2018a) 并进入临床,对可解释性问题的实际解决方案的需求变得更加迫切。本特别版针对医疗保健领域实施 ML/AI 方法需要创新和更清晰的最佳实践的三个关键领域:确保安全、证明有效性和提供可解释性。值得注意的是,前两个标准长期以来一直是药品和医疗器械评估的主要内容(即,为了获得批准用于人类,产品必须证明其安全有效——通常与合理的比较物进行比较)(Sp ł awi´nski 和 Ku´zniar,2004 年)。第三个要求——可解释性——似乎是 ML/AI 所独有的,因为它面临着解释模型如何得出越来越准确的结论的挑战。然而,经过仔细研究,人们可能会认为可解释性标准在过去就已经隐含了:药物和设备的作用机制通常在其产品文档中描述(加拿大卫生部,2014 年)。然而,这可能会产生误导。例如,许多药物具有已知的受体结合谱和假定的作用机制,尽管它们在临床实践中广泛使用,但它们产生作用的确切机制仍不清楚。这方面的主要例子是锂(Shaldubina 等人,2001)和电休克疗法(Scott,2011),这两种治疗方法都存在已久且非常有效,但其作用机制仍存在争议。事实上,即使是全身麻醉的确切机制也是争论的主题(Pleuvry,2008)。因此,我们必须考虑一个折衷方案——即足够的可解释性(Clarke 和 Kapelner)。这涉及回答以下问题:我们必须对模型了解多少才能确定它在临床实践中是安全的?本期特刊中的文章开始探讨这一问题的可能答案,以及 ML/AI 在医疗保健环境中的应用中的其他关键问题。
人工智能(AI)在塑造未来的技术景观方面至关重要。多机构增强学习(MARL)已成为一种重要的AI技术,用于模拟各个领域的复杂动态,从而为自主代理之间的先进战略计划和协调带来了新的潜力。但是,其在敏感军事环境中的实际部署受到缺乏解释性的限制:可靠性,安全性,战略验证和人机相互作用的关键因素。本文回顾了MARL内解释性的最新进步,并提出了新颖的用例,强调了其不可或缺的检查代理决策过程。我们首先对现有技术进行了严格评估,并将其与军事策略的领域联系起来,重点是模拟空中战斗场景。然后,我们介绍了一种新型信息理论解释性描述符的概念,以分析代理人的合作能力。通过我们的研究,我们旨在强调精确理解AI决策并将这些人为产生的策略与人类理解和战略军事教义保持一致的必要性,从而提高AI系统的透明度和可靠性。通过阐明解释性在推进MARL进行操作防御方面的关键重要性,我们的工作不仅支持战略计划,而且还支持对军事人员进行洞察力和可理解的分析的培训。
对于希望在行业中脱颖而出的所有公司来说,在不同领域应用人工智能 (AI) 工具正成为必修课。成功应用人工智能的一个主要挑战是将机器学习 (ML) 专业知识与领域知识相结合,以获得应用人工智能工具的最佳效果。领域专家了解数据以及数据如何影响他们的决策。ML 专家能够使用基于 AI 的工具处理大量数据并为领域专家提供见解。但如果不深入了解数据,ML 专家就无法调整他们的模型以获得特定领域的最佳结果。因此,领域专家是 ML 工具的主要用户,这些 AI 工具的可解释性成为该背景下的重要特征。人们为研究不同背景、用户和目标的 AI 可解释性付出了很多努力。在这篇立场文件中,我们讨论了关于 ML 专家如何在定义要为特定领域开发的 ML 工具的功能时表达对 AI 可解释性的担忧的有趣发现。我们分析了两次头脑风暴会议的数据,讨论了 ML 工具的功能,以支持地球科学家(领域专家)使用 ML 资源分析地震数据(特定领域数据)。
摘要 — 可解释人工智能 (XAI) 是人工智能界一个充满活力的研究课题。它引起了各种方法和领域的关注,尤其是那些涉及高风险决策的领域,例如生物医学领域。关于这个主题的文章已经很多,但 XAI 仍然缺乏共享的术语和能够为解释提供结构合理性的框架。在我们的工作中,我们通过提出一种新颖的解释定义来解决这些问题,该定义综合了文献中的内容。我们认识到解释不是原子的,而是来自模型及其输入输出映射的证据与人类对这些证据的解释的组合。此外,我们将解释纳入忠实性(即,解释是对模型内部运作和决策过程的准确描述)和可信度(即,解释对用户的说服力有多大)的属性中。我们的理论框架简化了这些属性的操作方式,并为我们作为案例研究分析的常见解释方法提供了新的见解。我们还讨论了我们的框架可能对生物医学产生的影响,这是一个非常敏感的应用领域,XAI 可以在建立信任方面发挥核心作用。索引术语 — 可解释性、机器学习、生物医学
变形金刚对自然语言处理产生了重大影响,最近证明了它们在计算机视觉中的潜力。他们在基本的计算机视觉任务中显示了卷积神经网络的有希望的结果。然而,科学界并未完全掌握视觉变形金刚的内部运作,也没有做出决策的基础,这强调了解释性方法的重要性。了解这些模型如何做出决定不仅可以改善其绩效,还可以建立对AI系统的信任。本研究探讨了为视觉变压器提出的不同解释性方法,并提出了根据其动机,结构和应用方案组织它们的分类法。此外,它提供了对评估标准的全面审查,可用于比较解释结果以及解释性工具和框架。最后,本文重点介绍了可以增强视觉变形金刚的解释性的基本但未开发的方面,并建议有前途的研究方向以进行未来的投资。关键字:解释性,视觉变压器,VIT,注意力,修剪。
