HAL 是一个多学科开放存取档案库,用于存放和传播科学研究文献,无论这些文献是否已出版。这些文献可能来自法国或国外的教学和研究机构,也可能来自公共或私人研究中心。
机器学习的应用在医学和健康中变得越来越普遍,从而实现了更准确的预测模型。但是,这通常以相互可预性为代价,从而限制了机器学习方法的临床影响。要意识到医疗保健中机器学习的潜力,从多个利益相关者和各个角度的透明度中理解此类模型至关重要,需要不同类型的解释。从这个角度来看,我们激励和探索了五种根本不同类型的事后机器学习解释性。我们强调了它们提供的不同信息,并描述了每个信息何时有用。我们研究了医疗保健领域的各种利益相关者,探讨了他们的特定目标,要求和目标。我们讨论当前的可解释性概念如何帮助满足这些概念以及每个利益相关者使机器学习模式在临床上产生影响的要求。最后,为了促进采用,我们发布了一个开源可解释性库(https://github.com/vanderschaarlab/interpretability),其中包含不同类型的可解释性的实现,包括可视化和探索解释的工具。
机器学习技术越来越多地用于高风险决策,例如大学录取,贷款归因或累犯预测。因此,至关重要的是,确保人类用户可以审核或理解所学的模型,不要创建或再现歧视或偏见,并且不会泄露有关其培训数据的敏感信息。的确,可解释性,公平性和隐私是负责任的机器学习开发的关键要求,在过去的十年中,这三者进行了广泛的研究。但是,它们主要被孤立地考虑,而在实践中,它们相互相互作用,无论是积极还是负面的。在本次调查文件中,我们回顾了有关这三个Desiderata之间相互作用的文献。更确切地说,对于每种成对相互作用,我们总结了认同的协同作用和紧张局势。这些发现突出了几种基本的理论和经验性冲突,同时还指出,当一个人旨在保留高水平时,共同考虑这些不同的要求是具有挑战性的。为了解决这个问题,我们还讨论了可能的调解机制,表明仔细的设计可以成功处理实践中这些不同的问题。
基于机器学习 (ML) 的模型得出的关于大脑功能的计算显式假设最近彻底改变了神经科学 1、2。尽管这些人工神经网络 (ANN) 具有前所未有的能力来捕捉生物神经网络 (大脑) 中的反应 (图 1A;参见 3 进行全面评论),并且我们可以完全访问所有内部模型组件 (与大脑不同),但 ANN 通常被称为可解释性有限的“黑匣子”。然而,可解释性是一个多方面的构造,在不同领域有不同的使用方式。特别是,人工智能 (AI) 中的可解释性或可解释性工作侧重于理解不同模型组件如何影响其输出 (即决策)。相比之下,ANN 的神经科学可解释性需要模型组件和神经科学构造 (例如,不同的大脑区域或现象,如复发 4 或自上而下的反馈 5 ) 之间的明确一致性。鉴于人们普遍呼吁提高人工智能系统的可解释性 6 ,我们在此强调了这些不同的可解释性概念,并认为 ANN 的神经科学可解释性可以与人工智能的持续努力并行但独立地进行。某些 ML 技术(例如,深度梦境,见图 1C)可以在这两个领域中得到利用,以探究哪种刺激可以最佳地激活特定模型特征(通过优化实现特征可视化),或者不同特征如何影响模型的输出(特征归因)。然而,如果没有适当的大脑对齐,某些特征(图 1C 中模型的非蓝色部分)对于神经科学家来说仍然是无法解释的。
摘要 机器学习 (ML) 算法在广泛的生物医学应用中的快速应用凸显了信任问题以及对 ML 算法生成的结果缺乏理解。最近的研究集中于开发可解释的 ML 模型并制定透明度和道德使用指南,确保机器学习以负责任的方式融入医疗保健领域。在本研究中,我们证明了 ML 可解释性方法的有效性,可为癫痫症(一种影响全球超过 6000 万人的严重神经系统疾病)的大脑网络相互作用动态提供重要见解。使用来自 16 名患者的高分辨率颅内脑电图 (EEG) 记录,我们开发了高精度 ML 模型,将这些大脑活动记录分为癫痫发作或非癫痫发作类别,然后执行一项更复杂的任务,即描绘出癫痫发作发展到大脑不同部位的不同阶段,作为一项多类别分类任务。我们对高精度 ML 模型应用了三种不同类型的可解释性方法,以了解不同类别的大脑交互模式(包括多焦点交互)的相对贡献,这些模式在区分大脑的不同状态方面发挥着重要作用。本研究结果首次证明,事后可解释性方法使我们能够理解 ML 算法生成给定结果集的原因以及输入值的变化如何影响 ML 算法的准确性。特别是,我们在本研究中表明,可解释性方法可用于识别对癫痫发作事件有重大影响的大脑区域和交互模式。本研究结果强调了在异常脑网络研究和更广泛的生物医学研究领域中集成实施 ML 算法和可解释性方法的重要性。
在过去的十年中,人工智能 (AI) 领域取得了广泛的发展。现代放射肿瘤学基于对先进计算方法的利用,旨在实现个性化和高诊断和治疗精度。可用成像数据的数量和机器学习 (ML),特别是深度学习 (DL) 的不断发展,引发了从解剖和功能医学图像中发现“隐藏”生物标志物和定量特征的研究。深度神经网络 (DNN) 在图像处理任务中取得了出色的性能并得到了广泛的应用。最近,DNN 已被考虑用于放射组学,它们在可解释人工智能 (XAI) 方面的潜力可能有助于临床实践中的分类和预测。然而,它们中的大多数都使用有限的数据集并且缺乏普遍适用性。在本研究中,我们回顾了放射组学特征提取的基础知识、图像分析中的 DNN 以及有助于实现可解释人工智能的主要可解释性方法。此外,我们讨论了多中心招募大型数据集的关键要求,增加了生物标志物的变异性,从而确定放射组学的潜在临床价值和开发强大的可解释人工智能模型。
问题:以后生活的年代老化与脑退化过程以及中风和痴呆等疾病的风险增加有关。随着衰老人群的趋势,寿命,心理健康和精神病研究的增加,人们越来越关注理解与大脑相关的衰老变化。最近的发现表明脑年龄差距(按时间年龄和大脑成像指数预测的脑年龄之间的差异);间隙的大小可能表明脑老化过程和疾病的早期发作。人工智能允许在年代和预测的脑时代的差距上缩小差距。但是,驱动大脑年龄预测模型预测的因素仍然未知,并且这些因素并不多,这些因素可以从机器学习模型的黑盒本质中收集。本研究的目的是测试一种大脑年龄回归方法,该方法更适合研究人员和临床医生的解释。
现有的用于预测电子设备故障率的模型通常会显示出差异,与实际测量相比,稳定时期的预测值较高,在流失期间的值较低。尽管它们经常用于模拟时间序列过程中的强度函数,但复发性神经网络(RNN)却难以捕获事件序列之间的长距离依赖性。此外,强度函数的固定参数形式可以限制模型的概括。为了解决这些缺点,提出了一种新颖的方法,利用注意机制在不依赖强度函数的情况下生成时间点过程。为了量化模型和现实分布之间的差异,模型使用Wasserstein距离来创建损失函数。此外,为了提高可解释性和概括性,使用一种自动机制来评估过去事件对当前发生的影响。比较测试表明,这种方法的表现超过了可能的可能性模型,而没有先前了解强度功能和类似RNN的生成模型,从而将相对错误率降低了3.59%,并将错误预测准确性提高了3.91%。
©作者2024,更正的出版物2024。Open Access本文是根据Creative Commons Attribution 4.0 International许可获得许可的,该许可允许以任何媒介或格式使用,共享,适应,分发和复制,只要您对原始作者和来源提供适当的信誉,请提供与创意共享许可证的链接,并指出是否进行了更改。本文中的图像或其他第三方材料包含在文章的创意共享许可中,除非在信用额度中另有说明。如果本文的创意共享许可中未包含材料,并且您的预期用途不受法定法规的允许或超过允许的用途,则您需要直接从版权所有者那里获得许可。要查看此许可证的副本,请访问http://创建ivecommons。org/licen ses/by/4。0/。Creative Commons公共领域奉献豁免(http://创建ivecommons。Org/publi cdoma in/Zero/1。0/1。0/)适用于本文中提供的数据,除非在数据信用额度中另有说明。
摘要:脑电图 (EEG) 测量由运动想象范式 (MI) 刺激的大脑活动,该技术与广泛使用的脑机接口 (BCI) 技术结合使用具有多种优势。然而,记录数据的内部/外部差异显著,对个人技能对所取得的表现有重大影响。本研究探索区分 MI 任务的能力以及大脑产生诱发心理反应的能力的可解释性,从而提高准确性。我们开发了一个深度和宽度卷积神经网络,该神经网络由从多通道 EEG 数据中提取的一组拓扑图提供。此外,我们沿 MI 范式时间线以不同间隔执行基于梯度的类激活图 (即 Grad-Cam++) 的可视化技术,以解释神经反应随时间变化的受试者内部差异。我们还对提取的地图的动态空间表示在整个受试者集中进行聚类,以更深入地了解 MI-BCI 协调技能。根据对运动诱发电位 GigaScience 数据库进行评估的结果,所开发的方法增强了运动意象的生理解释,例如节律之间的神经同步、大脑侧化以及预测 MI 发作反应及其在训练期间的演变的能力。