图2。PSH受试者的识别过程流程图。使用XGBoost算法和不健康的标签信息,使用Knhanes数据库训练二进制分类模型。使用SHAP算法解释了受过训练的模型。通过将HSSH算法应用于分析的形状值,PSH方向(从性状的平均值左右)确定。接下来,代表与性状均值的距离的PSH强度由用户设置的超参数定义。在图中,三个PSH强度值显示为示例,对应于三个不同的高参数值。最后,计算了标记为每个性状的红点的PSH值。用于塑造分析的框,HSSH算法和PSH值连接到其相应的带有虚线的框,以进行详细说明。在图中,提供了DBP为例。
摘要背景:本研究旨在通过基于轨迹的聚类,根据疾病活动趋势对类风湿性关节炎 (RA) 患者进行分层,并根据轨迹组确定影响生物制剂和靶向合成抗风湿药物 (DMARD) 治疗反应的因素。方法:我们分析了来自韩国风湿病学院生物制剂和靶向治疗登记处的全国 RA 队列数据。其中包括接受二线生物制剂和靶向合成 DMARD 治疗的患者。使用轨迹聚类模型对疾病活动趋势进行分组。使用每个轨迹的 SHAP(SHapley Additive exPlanations)值的机器学习模型研究了影响因素。结果:688 例 RA 患者的疾病活动趋势可分为 4 组:快速下降且疾病活动稳定(第 1 组,n = 319)、快速下降后上升(第 2 组,n = 36)、缓慢持续下降(第 3 组,n = 290)和疾病活动无下降(第 4 组,n = 43)。SHAP 图表明,与第 1 组相比,第 2 组最重要的特征是基线红细胞沉降率 (ESR)、泼尼松龙剂量和 28 关节评估疾病活动评分 (DAS28)(SHAP 值分别为 0.308、0.157 和 0.103)。与第 1 组相比,第 3 组最重要的特征是基线 ESR、DAS28 和估计肾小球滤过率 (eGFR)(SHAP 值分别为 0.175、0.164、0.042)。与第 1 组相比,第 4 组最重要的特征是基线 DAS28、ESR 和血尿素氮 (BUN)(SHAP 值分别为 0.387、0.153、0.144)。结论:基于轨迹的方法可用于聚类 RA 患者生物和靶向合成 DMARD 的治疗反应。此外,基线 DAS28、ESR、泼尼松龙剂量、eGFR 和 BUN 是 4 年轨迹的重要影响因素。关键词:类风湿关节炎、生物制剂、轨迹聚类/轨迹建模、治疗反应
摘要:本文介绍了可解释人工智能方法在医学图像分析场景中提供决策支持的潜力。通过将三种可解释方法应用于同一医学图像数据集,我们旨在提高卷积神经网络 (CNN) 提供的决策的可理解性。视频胶囊内窥镜 (VCE) 获得的体内胃部图像是视觉解释的主题,目的是提高医疗专业人员对黑盒预测的信任度。我们实施了两种事后可解释机器学习方法,称为局部可解释模型不可知解释 (LIME) 和 SHapley 附加解释 (SHAP),以及一种替代解释方法,即上下文重要性和效用 (CIU) 方法。产生的解释由人工评估。我们根据 LIME、SHAP 和 CIU 提供的解释进行了三项用户研究。来自不同非医学背景的用户在基于网络的调查环境中进行了一系列测试,并陈述了他们对给定解释的经验和理解。我们对具有三种不同解释形式的三个用户组(n = 20、20、20)进行了定量分析。我们发现,正如假设的那样,在改善对人类决策的支持以及更加透明从而让用户更容易理解方面,CIU 可解释方法比 LIME 和 SHAP 方法表现更好。此外,CIU 因能够更快地生成解释而优于 LIME 和 SHAP。我们的研究结果表明,在不同的解释支持设置之间,人类的决策存在显著差异。与此相符,我们提出了三种潜在的可解释方法,随着未来实施的改进,这些方法可以推广到不同的医疗数据集,并为医疗专家提供有效的决策支持。
摘要 —如今,深度神经网络被广泛应用于对社会产生直接影响的各个领域。尽管这些模型通常表现出色,但它们长期以来一直被用作黑匣子。为了解决这个问题,可解释人工智能 (XAI) 已经发展成为一个旨在提高模型透明度和增加其可信度的领域。我们提出了一种再训练流程,该流程从 XAI 开始并利用最先进的技术不断改进模型预测。为此,我们使用 XAI 结果,即 SHapley Additive exPlanations (SHAP) 值,为数据样本提供特定的训练权重。这可以改进模型的训练,从而提高性能。为了对我们的方法进行基准测试,我们在现实生活和公共数据集上对其进行了评估。首先,我们在基于雷达的人数统计场景中执行该方法。之后,我们在公共计算机视觉数据集 CIFAR-10 上对其进行测试。使用基于 SHAP 的再训练方法进行的实验,相对于标准等权重再训练,在人数统计任务中实现了 4% 以上的准确率。此外,在 CIFAR-10 上,我们基于 SHAP 的加权策略的准确率比使用等权重样本的训练程序高出 3%。索引术语 — 雷达传感器、可解释的人工智能、深度学习、SHapley 加法解释
超参数优化和严格的模型评估被实施,以识别最佳XGBoost模型。随后,使用Shapley添加说明(SHAP)分析来查明关键监测站(例如,站点C)。(2)VOC源代码分配:阳性基质分解(PMF)应用于关键站点的32个VOC物种,解决六个排放源:石化化学过程(PP),燃料蒸发(FE),燃烧源(CS),燃烧源(CS),Solvent使用(SU),(SU),Polymer Fabrication(Pff),Polimer Fabrication(Pf)和车辆(VEVE)(VE)(VE)。(3)因子影响量化:从XGBoost模型得出的形状值为200
在定向能量沉积 (DED) 中,局部材料微观结构和抗拉强度由零件上每个空间位置经历的热历史决定。虽然先前的研究已经调查了热历史对机械性能的影响,但仍然需要一种物理上可解释、简约且具有良好预测精度的抗拉强度预测模型。本文研究了一种基于 Shapley 加性解释 (SHAP) 模型解释的数据驱动预测模型来解决这一问题。首先,将从先前的实验工作中翻译出来的物理上有意义的热特征用作神经网络的输入,以进行抗拉性能预测。然后计算各个输入特征的 SHAP 值,以量化它们各自对抗拉性能预测的影响,并使用累积相对方差 (CRV) 度量降低模型复杂性。对实验获得的 Inconel 718 (IN718) 抗拉强度的预测表明,通过开发的方法量化的特征影响可以通过先前研究的结果来验证,从而证实了神经网络预测逻辑的物理可解释性。此外,基于CRV的模型复杂度降低表明,简约模型只需要不到10%的原始特征即可达到与先前文献报道相同的拉伸强度预测精度,从而证明了基于SHAP的特征降低方法在改进DED过程表征方面的有效性。
图1。研究工作流程的概述。这项研究的数据是从以前的出版物(10)中获得的,该出版物可在GEO上访问。数据被预处理以消除低变化和异常基因,然后训练VAE。vae由两个基本部分组成。首先,编码器将输入维度降低到任意数字。对于每个减小的尺寸,获得了两个参数,代表正态分布的平均值和标准偏差,构成了潜在空间。第二,解码器恢复了数据的原始空间,并带有关联的重建误差。为了最大程度地减少此错误,解码器的输出用于训练后处理神经网络。使用解码器的生成能力,可以创建类似于原始的合成数据,并使用它以高特异性研究MB的亚组。此外,为了解释MB亚组和基因之间的关系,在潜在空间上使用了一个分类器来区分四个MB亚组(SHH,WNT,第3组和组4)。可以通过获得需要两个步骤的基因的形状值来解释此分类。shap的树式插图获得了分类子组与潜在空间之间的关系。然后,最重要的潜在变量(解释大多数分类的变量)然后传递给Shap的Deepplainer,以获取解释亚组分类的基因。
近年来,增强学习(RL)已成为一种有力的工具,可在光网络(例如路由和波长分配(RWA)[1]等光网络中解决复杂而染色的优化问题[1],路由,调制和频谱分配(RMSA)[2]以及虚拟网络嵌入[3]。RL实现的性能效果表明其在现实世界中的应用潜力。但是,与其他机器学习(ML)算法类似,RL模型具有黑盒性质,使它们难以解释。这种特征使RL模型难以信任,因此在实际的光网部署中采用。对于监督的ML模型,Shap(Shapley添加说明)[4]是一种可解释的AI方法,已被广泛采用。Shap是一种基于合作游戏理论的方法,用于量化单个特征对模型决策过程的影响。Shap值提供了对每个功能的相对重要性(影响)的见解,从而估算了它们如何对模型的输出做出贡献。将这种解释性框架应用于传播质量(QOT)预测任务时,已显示出有希望的属性[5]。最近,由于需要解释和使RL模型的决策过程透明的驱动,可解释的RL(XRL)受到了越来越多的关注。在光网络的上下文中,XRL的概念仍然相对尚未探索。先前建议通过反向工程网络状态[6]或网络中资源使用分析(链接)来解释和解释RL模型的决策[1,7]。但是,这些研究并未分析不同特征如何影响RL药物的决策。因此,在光网络背景下,RL代理学到的政策仍然存在一段差距。这至关重要,因为网络运营商需要在其在实际网络中部署之前了解RL学习策略背后的推理。在这项工作中,我们旨在利用Shap(Shapley添加说明)[4]来解释应用于RMSA问题的RL模型的行为。为此,我们提出了一种使用训练有素的RL代理的观察和行动来以有监督的学习方式训练ML模型的方法。由Shap使用所得的ML模型来提取解释。与[2]中的RMSA问题的每个组件分别求解,RL代理解决路由问题,基于路径长度的调制格式选择以及基于第一拟合策略的频谱分配。我们分析了该问题的三种变化,改变了奖励函数和选择RL代理的不可行的动作的可能性。我们特别有兴趣解释重要的网络和LightPath请求特征,该特征导致RL模型拒绝该请求。结果允许我们确定哪些功能和哪些值范围影响RL代理接受或拒绝LightPath请求。我们观察到,通过更改奖励功能,RL策略会更改拒绝请求时所考虑的重要功能。引入了防止RL模型采取不可行的措施的掩码,使功能的重要性更加均匀地分布在不同的路由选项上。我们认为,提出的方法对于增加将在真实网络中部署的RL模型的可信度可能是有价值的。
摘要 使用人工智能从 MRI 图像中检测和描绘脑肿瘤是医学 AI 面临的一项复杂挑战。最近的进展见证了各种技术被用于协助医疗专业人员完成这项任务。尽管机器学习算法在分割肿瘤方面很有效,但它们在决策过程中缺乏透明度,阻碍了信任和验证。在我们的项目中,我们构建了一个可解释的 U-Net 模型,专门用于脑肿瘤分割,利用梯度加权类激活映射 (Grad-CAM) 算法和 SHapley 加法解释 (SHAP) 库。我们依靠 BraTS2020 基准数据集进行训练和评估。我们采用的 U-Net 模型产生了有希望的结果。然后,我们利用 Grad-CAM 在图像中可视化模型关注的关键特征。此外,我们利用 SHAP 库来阐明用于预测患者生存天数的各种模型(包括随机森林、KNN、SVC 和 MLP)的预测,从而增强了可解释性。
摘要 - 在Point-Cloud获取环境中的常见挑战,例如实现安全性和自动驾驶,是确定传感器和工人的放置以及要支付给他们的奖励。游戏理论可作为一种非常强大的工具,用于确定部署的传感器和工人的适当奖励的问题,并且先前的一些研究提出了使用游戏理论来确定奖励的方法。但是,这些方法并未考虑AI对下游任务的识别准确性的影响,以开发这些适当的奖励。在本文中,我们通过考虑AI的识别准确性提出了游戏理论的新特征功能。为了定义我们的功能,我们研究了观点数量和点云的噪声水平如何影响分类精度。此外,我们分析了识别模型通过使用Shap重点关注的点云的哪一部分,这是一种基于Shapley值改善机器学习的方法。索引术语 - 点云,特征功能,莎普利值,shap,零拍点云识别模型