因果关系和可解释人工智能 (XAI) 是计算机科学中独立的领域,尽管因果关系和解释的基本概念有着共同的古老根源。由于缺乏共同涵盖这两个领域的评论工作,这种情况进一步加剧。在本文中,我们调查了文献,试图了解因果关系和 XAI 是如何以及在多大程度上交织在一起的。更准确地说,我们试图揭示这两个概念之间存在什么样的关系,以及如何从中受益,例如,在建立对人工智能系统的信任方面。结果,确定了三个主要观点。在第一个观点中,因果关系的缺乏被视为当前人工智能和 XAI 方法的主要局限性之一,并研究了“最佳”解释形式。第二个是务实的观点,将 XAI 视为一种工具,通过识别值得追求的实验操作来促进因果探究的科学探索。最后,第三个观点支持因果关系对 XAI 具有先导性的观点,其方式有三种:利用从因果关系中借用的概念来支持或改进 XAI、利用反事实来解释,以及将访问因果模型视为自我解释。为了补充我们的分析,我们还提供了用于自动执行因果任务的相关软件解决方案。我们相信,通过强调潜在的领域桥梁并揭示可能的局限性,我们的工作为因果关系和 XAI 这两个领域提供了统一的视角。
比控制细胞更有效。从方法论上讲,通过将结构可控性扩展到完全可控性,我们引入了控制中心来识别细胞中对细胞可控性很重要的关键点。我们使用靶向药物作为外部影响,使细胞无法被任何病毒感染控制。因此,控制中心是药物重新利用的有效载体,正如本研究所证明的那样。许多控制中心也是现有药物的靶标,这并非巧合,如我们的药物靶标富集分析所示(图 2D)。相反,结果表明,具有生物学重要性的蛋白质,特别是与免疫相关的蛋白质,位于人类 PPI 网络中的关键位置。
背景:阿尔茨海默病 (AZD) 是一种退行性神经系统疾病,会导致痴呆并导致大脑萎缩。虽然 AZD 无法治愈,但早期发现和及时治疗可以减缓其进展。AZD 可以通过脑电图 (EEG) 信号有效识别。但是,分析 EEG 信号具有挑战性,因为它们会快速自发地变化。此外,由于机器学习或深度学习模型的预测缺乏可解释性,临床医生对现有模型的信任度很低。方法:本文提出了一种新颖的 Adazd-Net,这是一种使用 EEG 信号自动识别 AZD 的自适应和解释性框架。我们提出了自适应灵活分析小波变换,它可以自动适应 EEG 的变化。这项工作还探索了有效系统性能所需的最佳特征数量,以及最具判别性的通道的发现。本文还介绍了可用于解释分类器模型提供的个体和整体预测的技术。结果:我们通过十倍交叉验证策略在检测 AZD EEG 信号时获得了 99.85% 的准确率。结论:我们提出了一种精确且可解释的 AZD 检测技术。研究人员和临床医生可以使用我们提出的模型来调查有关 AZD 期间大脑变化的隐藏信息。我们开发的 Adazd-Net 模型可用于医院场景中检测 AZD,因为它准确且稳健。© 2023 作者。由 Elsevier BV 出版这是一篇根据 CC BY 许可开放获取的文章(http://creativecommons.org/licenses/by/4.0/)。
摘要:锂 - 离子电池在清洁运输系统中起着至关重要的作用,包括电动汽车,飞机和电动微型。电池电池的设计及其生产过程与它们的表征,监测和控制技术一样重要,以改善行业的运输和可持续性。近几十年来,解决所有提到的方面的数据驱动方法都以有希望的结果进行了大规模发展,尤其是通过人工智能和机器学习。本文介绍了可解释的机器学习中的最新开发,称为XML及其在锂离子电池中的应用。它包括对制造和生产阶段中XML的批判性审查,然后在使用电池时进行状态估计和控制。前者专注于XML,以优化电池结构,特性和制造过程,而后者则考虑了与健康状况,充电和能源状态相关的监测方面。本文通过对现有技术的理论方面进行全面审查并讨论各种案例研究,是为了告知该地区最先进的XML方法的堆栈持有人,并鼓励他们在过渡到Netzero的未来中从ML转向XML。这项工作还强调了电池社区的研究差距和潜在的未来研究方向。
精确医学的主要重点是使用计算工具来准确预测疾病结果并确定相关的生物标志物以进行有效的后续评估。Over the last two decades, linear models have been widely implemented to identify differentially expressed genes and enriched signaling pathways in functional genomics (Love et al., 2014 ; Nueda et al., 2014 ; Ritchie et al., 2015 ; Robinson et al., 2009 ), characterize complex trait architecture in genome-wide association studies (, 2010 ; Hayeck et al., 2015 ; Heckerman et al., 2019年,Kang et al。等Al。,2018年; Manno等,2018),并在不同的时间点,数据收集位点和组织类型上进行有效的归一化和维度降低(Hasin等,2017;Lähnemann等,2020)。这些方法的一部分是它们提供统计显着性措施的能力,例如P值,后置包含概率(PIPS)或然后可以使用的贝叶斯因素,可用于促进下游任务(例如,选择哪些分子机制以药物为目标或选择哪些临床干预措施对特定患者有效)。不幸的是,严格的加性假设通常会阻碍线性模型的性能;这些方法中最强大的方法依赖于训练算法,这些算法在计算上效率低下且对大规模数据集不可靠。成像和测序技术的持续进步(Stephens等,2015)提供了范围,以将多模式的非参数方法整合为生物学和临床应用中的最先进工具。的确,机器学习方法众所周知,具有在数据中学习复杂的非线性模式的能力,并且当有大量的培训示例可用时,它们通常在设置中获得最大的功能(Lecun等,2015)。然而,文献中已被大量引用,许多机器学习技术都受到“黑匣子”限制的影响,因为它们并不自然地进行经典的统计假设测试,例如线性模型,这对于精确医学中的决策至关重要。导致非线性算法更好的预测性能的关键特征之一是自动包含被放入模型中的特征之间的高阶相互作用(Crawford等,2018; Jiang&Reif,2015)。例如,神经网络利用分层之间的激活功能,这些层隐式列举了输入特征之间所有可能的(多项式)交互作用(Demetci等,2021; 2021; Murdoch等,2019; Tsang,Cheng,Cheng,&Liu,&Liu,2018; Tsang,Liu,Liu等,2018; 2018; WAHBA,1900年)。这已被证明在准确预测模型生物的特征方面有所作为,在这些特征中,诸如epistasis之类的现象(即多个基因座和/或基因之间的相互作用)可以在物种之间的变化中发挥很大作用(Bellot等人,2018; Runcie et al。,2021; Swain等,2016; swain等,2016; 2016; weissbrod et al an a w weissbrod et al。这是用于改进模型的部分数学解释,但在许多生物医学应用中,我们经常希望准确地知道哪些基因组特征(例如变体,基因和途径)对于定义表型或疾病结果的结构最重要。本手稿的主要目的是回顾大量的方法论研究,这些方法是为了开发计算生物学中更“可解释的”和“可解释”的机器学习。在整个本文中,我们将使用经典的观点,即“解释性”与使用模型参数的事后能力有关(有时也称为在文献的某些领域中表现“可变重要性”)(Crawford et al。,2019; Lundberg&Lundberg&Lee,2016,2017,2017; ribeio; ribeio et alik anik shrik,shrik shrik;虽然“解释性”是模型固有地为其参数和体系结构提供了可理解的定义(Hira等,2019; Marcinkevics&Vogt,2020; Shmueli,2010)。两个概念都可以分为试图在(i)全球范围上实现解释性或可解释性的方法类别,在该方法中,目标是对观察到的人群的整体变化的贡献进行对/(ii)在局部层面上的贡献进行排名/选择的输入,旨在详细介绍对数据集中的任何特定个人的重要性。在这里,我们将专注于描述神经网络中的全球尺度方法,其特殊动机来自基于关联映射的基因组学应用程序。我们在这篇综述中的主要贡献是为我们所说的“透明度谱”提供全面的景观,用于监督和无监督的学习算法,因为我们从黑匣子转移到可解释的方法,并最终转化为可解释的方法(图1)。
必须对 XAI 系统进行评估,尤其是在尝试将新创建的系统与文献中的其他系统进行比较时。因此,主观评估 XAI 系统的质量取决于最终用户的理解。这里的目标是满足人类的理解并允许他们判断您的 XAI 方法的有效性。因此,有两种依赖于定性评估的评估方法。第一种被称为以人为本的评估,它需要与最终用户直接互动,而不管他或她对手头系统的了解程度如何。第二种更实用,因为它选择了更多的领域专家来判断您的 XAI 方法的可解释性。然而,这两种技术都耗费时间和精力,可能采用其他实用且耗时较少的选项,因此,使用定量评估方法更为实用和高效。功能基础是一种不需要人类互动来识别的评估技术
本文探讨了基于主动推理和自由能原理开发人类可解释的人工智能 (AI) 系统的前景。我们首先简要概述主动推理,特别是它如何应用于决策、内省以及显性和隐性行为的生成。然后,我们讨论如何利用主动推理来设计可解释的 AI 系统,即通过允许我们建模“内省”过程的核心特征并生成有用的、人类可解释的决策过程模型。我们提出了一种使用主动推理的可解释 AI 系统架构。该架构突出了显式分层生成模型的作用,该模型的运行使 AI 系统能够跟踪和解释影响其自身决策的因素,其结构设计为可由人类用户解释和审核。我们概述了这种架构如何整合各种信息来源,以可审计的方式做出明智的决策,模仿或再现类似人类的意识和内省。最后,我们讨论了我们的研究结果对未来人工智能研究的影响,以及开发具有(出现)内省能力的人工智能系统的潜在伦理考虑。
图 3 敏感性分析流程示意图,旨在识别 MS 患者表型的大脑 RS FC 的显著变化。输入数据 (a) 以基于协方差的 RS FC 矩阵的形式使用主导集算法 (b) 使用所有矩阵进行聚类(不使用任何交叉验证框架)。得到的聚类代表(测地线质心)用于提取以距质心测地线距离形式呈现的特征。然后使用引导机制训练多个分类器,使我们能够分析与每个特征相关的权重统计数据。(c) 然后使用置换测试来选择一组重要特征,然后使用这些特征来识别和选择 (d) 正确分成几组的样本。(e) 最后,计算每组的测地线均值矩阵,并通过简单地将这些测地线均值矩阵(参考连接组)彼此相减来突出显示突出的连接。
深度学习的人工智能 (AI) 技术以其出色的图像分类性能彻底改变了疾病诊断。尽管取得了出色的成果,但这些技术在临床实践中的广泛采用仍处于中等速度。主要障碍之一是经过训练的深度神经网络 (DNN) 模型提供了预测,但关于为什么以及如何做出该预测的问题仍未得到解答。这种联系对于受监管的医疗保健领域至关重要,可以提高从业者、患者和其他利益相关者对自动诊断系统的信任。由于健康和安全问题,深度学习在医学成像中的应用必须谨慎解读,类似于自动驾驶汽车事故中的归咎问题。假阳性和假阴性病例对患者的福祉影响深远,不容忽视。最先进的深度学习算法由复杂的互连结构、数百万个参数和“黑匣子”性质组成,与传统机器学习算法不同,人们对其内部工作原理的理解很少,这加剧了这种情况。可解释的人工智能 (XAI) 技术有助于理解模型预测,从而有助于建立对系统的信任,加速疾病诊断并满足监管要求。本综述全面回顾了生物医学成像诊断领域 XAI 的前景。我们还对 XAI 技术进行了分类,讨论了尚未解决的挑战,并提供了 XAI 的未来方向,这将引起临床医生、监管机构和模型开发人员的兴趣。
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.