摘要 — 第六代 (6G) 无线网络的核心愿景之一是积累人工智能 (AI),以实现万物互联 (IoE) 的自主控制。特别是,必须通过分析人员、数据、流程和事物等 IoE 的上下文指标来维护 IoE 服务交付的质量。然而,当 AI 模型为网络服务提供商带来解释和直觉的缺失时,挑战就随之而来。因此,本文为质量感知的 IoE 服务交付提供了一个可解释的人工智能 (XAI) 框架,该框架同时支持智能和解释。首先,通过考虑网络动态和 IoE 的上下文指标来制定质量感知的 IoE 服务交付问题,其目标是最大化每个 IoE 服务用户的信道质量指数 (CQI)。其次,设计一个回归问题来解决所提出的公式问题,其中通过 Shapley 值解释估计上下文矩阵的可解释系数。第三,通过使用基于集成的回归模型来确保对矩阵之间上下文关系的解释以重新配置网络参数,实现了支持 XAI 的质量感知 IoE 服务交付算法。最后,实验结果表明,AdaBoost 和 Extra Trees 的上行链路改进率分别为 42 .43% 和 16 .32%,而下行链路改进率高达 28 .57% 和 14 .29% 。然而,基于 AdaBoost 的方法无法维持 IoE 服务用户的 CQI。因此,与其他基线相比,所提出的基于 Extra Trees 的回归模型在缓解准确性和可解释性之间的权衡方面表现出显着的性能提升。索引术语 — 万物互联、可解释人工智能、上下文矩阵、Shapley 系数、回归、服务质量。
摘要:随着解释机器学习(ML)模型的兴趣越来越多,本文综合了许多与ML解释性相关的主题。我们将解释性与解释性,本地解释性以及功能重要性与功能相关性区分开。我们演示和可视化不同的解释方法,如何解释它们,并提供完整的Python软件包(Scikit-templain),以允许未来的研究人员和模型开发人员探索这些解释能力方法。解释性方法包括Shapley添加性解释(SHAP),Shapley添加剂全球解释(SAGE)和累积的局部效应(ALE)。我们的重点主要放在基于沙普利的技术上,这些技术是增强模型解释性的各种现有方法的统一框架。例如,制造一致的方法,例如可解释的模型 - 不合Snostic解释(lime)和树解释器,用于局部解释性,而鼠尾草则统一了对全球解释性的置换重要性的不同变化。我们提供了一个简短的教程,用于使用三个不同数据集解释ML模型:用于对流的模型数据集用于恶劣天气预测,一个用于子冷冻道路表面预测的幕后数据集,以及用于雷电预测的基于卫星的数据。此外,我们还展示了相关特征对模型的解释性的不利影响。最后,我们演示了评估特征组的模型图案而不是单个特征的概念。评估特征组可减轻特征相关性的影响,并可以对模型提供更全面的理解。本研究中使用的所有代码,模型和数据都可以自由使用,以加速大气和其他环境科学中的机器学习解释性。
超参数优化和严格的模型评估被实施,以识别最佳XGBoost模型。随后,使用Shapley添加说明(SHAP)分析来查明关键监测站(例如,站点C)。(2)VOC源代码分配:阳性基质分解(PMF)应用于关键站点的32个VOC物种,解决六个排放源:石化化学过程(PP),燃料蒸发(FE),燃烧源(CS),燃烧源(CS),Solvent使用(SU),(SU),Polymer Fabrication(Pff),Polimer Fabrication(Pf)和车辆(VEVE)(VE)(VE)。(3)因子影响量化:从XGBoost模型得出的形状值为200
背景:青春期心理健康状况(例如抑郁症和焦虑)的患病率显着增加。尽管有机器学习的潜力(ML),但缺乏使用现实世界数据(RWD)来增强这些条件的早期检测和干预的模型。目的:本研究旨在使用RWD和社会卫生社会决定因素(SDOH)识别青少年的抑郁和焦虑。方法:我们分析了10-17岁的青少年的RWD,考虑到各种因素,例如人口统计学,事先诊断,处方药,医疗程序和实验室测量,在焦虑或抑郁症开始之前记录。临床数据与SDOH在区块级别上相关。开发了三个单独的模型,以预测焦虑,抑郁和两种状况。我们的ML选择模型是极端的梯度提升(XGBOOST),我们使用嵌套的交叉验证技术评估了其性能。要解释模型预测,我们使用了Shapley添加说明方法。结果:我们的队列包括52,054名青少年,识别12,572名患有焦虑症,7812的抑郁症和14,019个疾病。焦虑的曲线值为0.80,抑郁症为0.81,两者合并为0.78。不包括SDOH数据对模型性能的影响最小。Shapley添加性解释分析确定性别,种族,教育程度和各种医学因素是焦虑和抑郁的关键预测指标。结论:本研究强调了ML在使用RWD的青少年早期识别抑郁和焦虑症中的潜力。通过利用RWD,医疗保健提供者可能会更精确地确定高风险的青少年,并更早进行干预,并有可能改善心理健康成果。
摘要 - 源自人工智能技术可用于对患者的体育活动进行分类,并预测远程患者监测的生命体征。基于深度学习模型(例如深度学习模型)的非线性模型的回归分析,由于其黑盒性质而具有有限的解释性。这可能需要决策者根据非线性模型结果,尤其是在医疗保健应用中实现盲目的信仰飞跃。在非侵入性监测中,跟踪传感器的患者数据及其易感性临床属性是预测未来生命体征的输入特征。解释各种特征对监视应用程序的整体输出的贡献对于临床医生的决策至关重要。在这项研究中,提出了一个可解释的用于定量分析的AI(QXAI)框架,并通过临时模型的解释性和内在的解释性来解释和分类任务,以有监督的学习方法。这是通过利用Shapley价值观概念并将注意机制纳入深度学习模型中来实现的。我们采用了人工神经网络(ANN)和基于注意力的双向LSTM(BILSTM)模型,以根据传感器数据对心率和身体活动的分类进行预测。深度学习模型实现了最先进的预测和分类任务。在输入数据上进行了全球解释和局部解释,以了解各种患者数据的特征贡献。使用PPG-Dalia数据评估了提出的QXAI框架,以预测心率和移动健康(MHealth)数据,以根据传感器数据对体育活动进行分类。将蒙特卡洛近似应用于框架,以克服Shapley价值计算所需的时间复杂性和高计算功率要求。
摘要:铁 (Fe) 螯合药物和组蛋白去乙酰化酶 (HDAC) 抑制剂是治疗遗传性弗里德赖希共济失调的两种选择,已被证明可以改善临床结果 (FA)。Fe 螯合分子可以最大限度地减少储存的 Fe 量,而 HDAC 抑制剂可以促进 Frataxin (FXN) 基因的表达,从而增强 FA。本文报告了从 ChEMBL 数据库中对抑制剂进行完整的定量构效关系 (QSAR) 搜索,其中包括 437 种 Fe 螯合化合物和 1,354 种 HDAC 抑制剂化合物。为了进一步研究,选择 IC50 作为生物活性单位,经过数据细化,最终生成了 436 种 Fe 螯合化合物和 1,163 种 HDAC 抑制化合物的数据集。使用随机森林 (RF) 技术生成模型(训练 R 2 得分分别为 0.701 和 0.892;测试 R 2 得分分别为 0.572 和 0.460,分别针对 Fe 和 HDAC)。使用 PubChem 指纹创建的模型是 12 种指纹类型中最强的;因此选择该特征进行解释。结果显示了与含氮官能团(PubchemFP656 的 SHAP 值为 -0.29)和芳香环(PubchemFP12 的 SHAP 值为 -0.16)相关的特性的重要性。因此,我们解释了分子指纹对模型的影响以及对可用于人工智能 FA (XAI) 的潜在药物的影响,这可以通过 SHAP(Shapley 加法解释)值来解释。模型脚本和指纹识别方法也可在 https://github.com/tissueandcells/XAI 获得。关键词:可解释人工智能、弗里德赖希共济失调、预测准确性、定量构效关系、QSAR、Shapley 值。
摘要——人工智能在金融领域的应用越来越依赖于负责任的人工智能原则。这些原则——可解释性、公平性、隐私性、责任性、透明度和健全性构成了未来人工智能系统信任的基础。在本研究中,我们通过为深度神经网络提供解释来解决第一个原则,该网络在数字、分类和文本输入的混合上进行训练,用于金融交易分类。解释是通过 (1) 使用 Shapley 加性解释 (SHAP) 进行特征重要性分析和 (2) 文本聚类和决策树分类器的混合方法实现的。然后,我们通过将模型暴露于有针对性的逃避攻击来测试模型的稳健性,利用我们通过提取的解释获得的有关模型的知识。
采用不同的 AI 模型和训练策略来分割每个染色中的结构,如细胞核、细胞和纤维化;然后提取形态和纹理特征。血液学家和血液病理学家的反馈也包含在训练过程中。此外,还开发了一个分类模型来分析 MGG 涂片上的细胞,预测 12 种不同的细胞类型。结合标记物、细胞类型和组织成分的百分比及其空间组织,整合在一起以解决项目的临床目标。可解释性和可解释性由 SHapley Additive exPlanations 方法 (SHAP) 实现。使用 Harrell 的一致性指数 (CI) 评估预后模型鉴别,并使用 L1 惩罚 Cox 回归进行特征选择。
模型的可解释性一直是一个争论话题。一些研究指出,可解释性是不必要的,一些“白盒”模型,如回归模型或决策树,本质上是可解释的。本文对具有高度相关特征的多元回归模型进行分析,以说明模型在处理复杂数据时可解释性如何失效。在这种情况下,信任模型解释可能会有问题。Shapley 净效应技术有助于确定特征的边际贡献,可用于提高模型的可解释性并揭示有关预测的更多信息。该研究得出的结论是,在所有情况下,包括简单模型甚至更明显的情况,可解释性都是避免得出有偏见和错误结论的必要条件。
摘要:我们提出了一个可解释的人工智能模型,该模型可用于解释客户购买或放弃非寿险的原因。该方法包括将相似性聚类应用于从高精度 XGBoost 预测分类算法获得的 Shapley 值。我们提出的方法可以嵌入到基于技术的保险服务 (Insurtech) 中,从而可以实时了解对客户决策影响最大的因素,从而主动洞察他们的需求。我们通过对保险微保单购买数据进行的实证分析证明了我们模型的有效性。研究了两个方面:购买保险单的倾向和现有客户流失的风险。分析结果表明,可以根据一组相似的特征有效、快速地对客户进行分组,这可以很好地预测他们的购买或流失行为。