摘要 — 医疗物联网人工智能 (AIoMT) 的融合彻底改变了医疗保健行业,使先进的数据驱动解决方案能够改善医疗保健系统。随着人工智能 (AI) 模型的日益复杂,对可解释人工智能 (XAI) 技术的需求变得至关重要,尤其是在医疗领域,透明和可解释的决策变得至关重要。因此,在这项工作中,我们利用了一个自定义的 XAI 框架,结合了局部可解释模型不可知解释 (LIME)、SHapley 加法解释 (SHAP) 和梯度加权类激活映射 (Grad-Cam) 等技术,这些技术专为 AIoMT 领域设计。所提出的框架提高了战略医疗保健方法的有效性,旨在建立信任并促进对人工智能驱动的医疗应用的理解。此外,我们利用多数投票技术,该技术汇总来自多个卷积神经网络 (CNN) 的预测,并利用它们的集体智慧在医疗保健系统中做出稳健而准确的决策。基于这一决策过程,我们将 XAI 框架应用于脑肿瘤检测,作为展示准确透明诊断的用例。评估结果强调了 XAI 框架的卓越性能,实现了高精度、召回率和 F1 分数,训练准确率为 99%,验证准确率为 98%。将先进的 XAI 技术与基于集成的深度学习 (DL) 方法相结合,可以实现精确可靠的脑肿瘤诊断,这是 AIoMT 的一种应用。索引术语 — 可解释的人工智能 (XAI)、最大投票分类器、医疗物联网、智能医疗系统、健康。
基于生物标志物对最常见痴呆症形式的鉴别诊断变得越来越重要。机器学习 (ML) 可能能够应对这一挑战。本研究的目的是开发和解释一种 ML 算法,该算法能够根据社会人口统计学、临床和磁共振成像 (MRI) 变量区分阿尔茨海默氏痴呆、额颞叶痴呆、路易体痴呆和认知正常对照受试者。包括来自 5 个数据库的 506 名受试者。使用 FreeSurfer、LPA 和 TRACULA 处理 MRI 图像以获得脑体积和厚度、白质病变和扩散指标。MRI 指标与临床和人口统计数据结合使用,以基于称为 MUQUBIA(脑白质生物标记物多模态量化)的支持向量机模型进行鉴别诊断。年龄、性别、临床痴呆评分 (CDR) 痴呆分期工具和 19 个成像特征构成了最佳的判别特征集。该预测模型在测试组中的总体曲线下面积为 98%,总体精度 (88%)、召回率 (88%) 和 F1 分数 (88%) 较高,在神经病理学评估患者子集中的标签排名平均精度得分 (0.95) 较高。MUQUBIA 的结果通过 SHapley Additive exPlanations (SHAP) 方法进行解释。MUQUBIA 算法使用具有成本效益的临床和 MRI 信息成功地对各种痴呆症进行了良好的分类,并且通过独立验证,有可能协助医生进行临床诊断。
基于神经影像的脑年龄是一种通过机器学习 (ML) 预测生成的生物标记。脑年龄差距 (BAG) 通常定义为预测脑年龄与实际年龄之间的差异。研究一致报告称,精神分裂症 (SCZ) 患者的 BAG 呈阳性。然而,人们对哪些特定因素驱动基于 ML 的脑年龄预测知之甚少,导致对 BAG 的生物学解释有限。我们从三个公开数据库(COBRE、MCIC 和 UCLA)和一个早期精神分裂症的额外数据集(TOPSY)(82.5% 未接受治疗的首发样本)收集数据,并使用预训练的梯度提升树计算脑年龄。然后,我们应用 SHapley 加性解释 (SHAP) 来确定哪些脑特征会影响脑年龄预测。我们研究了每个特征和组的 SHAP 分数与 BAG 之间的相互作用。这些分析确定了总灰质体积(组 × SHAP 交互项 β = 1.71 [0.53; 3.23]; p 相关 < 0.03)是影响 SCZ 中观察到的 BAG 的特征,这些特征是最能预测大脑年龄的大脑特征之一。其他大脑特征在 SCZ 和 HC 之间的 SHAP 值也存在差异,但它们与 BAG 没有显著关联。我们将研究结果与非精神病性抑郁症数据集(CAN-BIND)进行了比较,其中相互作用并不显著。这项研究对于理解大脑年龄预测模型和 SCZ 中的 BAG 以及可能在其他精神疾病中的 BAG 具有重要意义。
2,Lindenwood University https://orcid.org/0000-0002-0578-6052摘要:深神经网络(DNN)的可解释性和解释性在人工智能(AI)中至关重要,尤其是应用于医疗保健,财务,财务,财务,自然驾驶和自动驾驶和自动驾驶。这项研究的需求源于AI逐渐融合到关键领域,在这些领域中,透明,信任和道德决策至关重要。本文探讨了建筑设计选择对DNN解释性的影响,重点介绍了不同的建筑元素(例如层类型,网络深度,连接模式和注意机制)如何影响模型透明度。从方法论上讲,该研究对案例研究和实验结果进行了全面综述,以分析DNN中的性能与可解释性之间的平衡。它检查了现实世界中的应用程序,以证明医疗保健,金融和自动驾驶等领域的可解释性重要性。该研究还综述了实用工具,例如局部可解释的模型不合源说明(LIME)和Shapley添加说明(SHAP),以评估它们在增强模型透明度方面的有效性。结果强调了解释性有助于更好的决策,问责制和遵守监管标准。例如,在环境监测中使用Shap有助于政策制定者了解空气质量的关键动力,从而导致明智的干预措施。在教育中,石灰通过强调影响学生绩效的因素来帮助教育者个性化学习。研究结果还表明,结合注意机制和混合模型体系结构可以显着提高可解释性,而不会损害性能。关键字:解释性,解释性,深神经网络,AI透明度
本文旨在使用最全面和最新的数据库开发一个独特的人工神经网络(ANN)的方程以及基于MATLAB和PYTHON的图形用户界面(GUI),以预先指示轴向填充的混凝土混凝土填充的混凝土混凝土填充的混凝土填充混凝土填充的双层皮肤管(CFDST)短材料和湿润的柱子,并用正常的材料和高音材料材料。使用1721组数据训练和测试了两种机器学习(ML)方法,它们是ANN和极端梯度提升(XGBOOST),其中129种从实验研究中收集了129个,而有限元(FE)模拟产生了1592个。通过将其预测与实验和FE结果进行比较,评估了开发的ML模型的准确性。为了证明每个参数对预测结果的影响,使用了Shapley添加说明(SHAP)方法。开发的ML模型还用于进行参数研究,以检查几何和材料参数对预测结果的影响。将ML模型的准确性和所提出的基于ANN的方程式预测CFDST列的最终轴向容量的准确性与六种设计方法的轴向容量进行了比较。提出了一个数值示例,以使用拟议的基于ANN的方程来说明CFDST列的设计过程。结果表明,ANN模型在看不见的数据上的性能要比XGBoost模型更好,该模型的XGBoost模型在测试集中均均方根误差较低。结果还表明,在预测准确性方面,ML模型和提出的基于ANN的方程优于其他设计模型。
SARS-CoV-2 3CLpro 蛋白是 COVID-19 的主要治疗靶点之一,因为它在病毒复制中起着关键作用,具有各种高质量的蛋白质晶体结构,并可作为计算筛选具有改进的抑制活性、生物利用度和 ADMETox 特性的化合物的基础。ChEMBL 和 PubChem 数据库包含筛选针对 SARS-CoV-2 3CLpro 的小分子的实验数据,这扩大了学习模式和设计计算模型的机会,该模型可以在体外和体内测试之前预测任何药物化合物对抗冠状病毒的效力。在这项研究中,我们利用几个描述符评估了 27 个机器学习分类器。我们还开发了一个神经网络模型,该模型可以在 CheMBL 数据上以 91% 的准确率正确识别生物活性和非活性化学物质,在 CheMBL 和 Pubchem 的组合数据上以 93% 的准确率正确识别生物活性和非活性化学物质。非活性和活性化合物的 F1 分数分别为 93% 和 94%。在 XGB 分类器上使用 SHAP (SHapley Additive exPlanations) 从 PaDEL 描述符中找出此任务的重要指纹。结果表明,PaDEL 描述符在预测生物活性方面是有效的,所提出的神经网络设计是有效的,并且通过 SHAP 的解释因子正确地识别了重要的指纹。此外,我们使用包含超过 100,000 个分子的大型数据集验证了我们提出的模型的有效性。本研究采用了各种分子描述符来发现最适合此任务的描述符。为了评估这些可能的药物对抗 SARS-CoV-2 的有效性,需要进行更多的体外和体内研究。
抽象背景在机械血栓切除术(MT)后,急性缺血性中风(AIS)患者的临床结局差异很高。方法217个在2018年8月至2022年1月之间接受MT的前循环大血管闭塞的连续患者。主要结果是功能独立性定义为3个月时修改的Rankin量表得分为0-2。在派生队列中(2018年8月至2020年12月),对70%的患者进行了7个合奏ML模型,并对剩余的30%进行了测试。该模型的性能得到了时间验证队列的进一步验证(2021年1月至2022年1月)。Shapley添加说明(SHAP)框架用于解释预测模型。结果衍生分析产生的9个项目得分(PFCML-MT)包括年龄,国家健康研究所中风量表评分,侧支状态和术后实验室指数(白蛋白与全球蛋白的比例,估计的肾小球过滤率,血液中性粒细胞计数,C-粒细胞计数,C-核酸蛋白质,蛋白质蛋白蛋白,蛋白蛋白胶蛋白,蛋白蛋白蛋白含量和水平。测试集的曲线下面的面积为0.87,时间验证队列为0.84。塑造分析进一步确定了顶部连续特征的阈值。该模型已翻译成一个在线计算器,该计算器可以免费提供给公众(https://zhelvyao-123-60-sial5s.streamlitapp.com)。使用ML和易于使用的功能的结论,我们开发了一种ML模型,该模型有可能在临床实践中使用,以产生对用MT治疗的AIS患者结果的实时,准确的预测。
动机药物组合在癌症治疗中显示出巨大的潜力。它们可以减轻耐药性并提高治疗效果。随着抗癌药物数量的快速增长,所有药物组合的实验研究都是昂贵且耗时的。计算技术可以提高药物组合筛选的效率。尽管最近在将机器学习应用于协同药物组合预测方面取得了进展,但仍然存在一些挑战。首先,现有方法的性能不是最优的。仍有很大改进空间。其次,生物学知识尚未完全融入模型。最后,许多模型缺乏可解释性,限制了它们的临床应用。结果我们开发了一个知识支持和自我注意力增强的深度学习模型 TranSynergy,以提高协同药物组合预测的性能和可解释性。TranSynergy 经过精心设计,可以通过细胞系基因依赖性、基因-基因相互作用和全基因组药物-靶标相互作用明确地模拟药物作用的细胞效应。开发了一种新颖的 Shapley 加性基因集富集分析 (SA-GSEA) 方法来对有助于协同药物组合的生物途径进行反卷积,并提高模型的可解释性。大量基准研究表明,TranSynergy 的表现明显优于最先进的方法,表明机制驱动的机器学习具有潜力。与协同组合相关的新途径被揭示并得到实验证据的支持。它们可能为识别精准医疗的生物标志物和发现新的抗癌疗法提供新的见解。对于治疗选择很少的卵巢癌,几种新的协同药物组合被高度可信地预测出来。
我们工作的重点是改善气候模型中异常的解释性,并促进我们对北极熔体动态的理解。北极和南极冰盖正在迅速融化并增加了淡水径流,这显着导致了全球海平面上升。了解在这些地区驱动融雪的机制至关重要。ERA5是极地气候研究中广泛使用的重新分析数据集,可提供广泛的气候变量和全球数据同化。但是,其融雪模型采用了一种能量不平衡的方法,可能会过度简化表面熔体的复杂性。相反,冰川能量和质量平衡(GEMB)模型结合了其他物理过程,例如积雪,FIRN致密化和融化液化/重新冻结,提供了表面熔体动力学的更详细的表示。在这项研究中,我们专注于分析格陵兰冰盖的表面融雪材料,并使用ERA5和GEMB模型中异常熔体事件的特征归因。我们提出了一种新型的无监督归因方法,利用反对解释方法来分析ERA5和GEMB中检测到的异常。我们的异常检测结果通过模仿地面真实数据进行验证,并针对既定的特征排名方法进行了评估,包括XGBoost,Shapley值和随机森林。我们的归因框架标识了每种模型背后的物理和气候特征驱动熔体异常的特征。这些发现证明了我们的归因方法在增强气候模型中异常的解释性并促进我们对北极熔体动力学的理解方面的实用性。
信用风险评估已成为现代金融领域关于明智贷款决策的主要关注点之一。尽管一些研究使用了传统的逻辑回归和线性判别分析技术,但在当今复杂且数据丰富的环境中,这些技术已越来越不适用。此类模型通常难以处理大型数据集和非线性关系,从而降低了其预测能力和适应性。人工智能 (AI) 和机器学习 (ML) 为信用风险建模提供了两种最具创新性的方法。本文回顾了一些用于提高信用风险评估准确性和效率的 ML 模型,从随机森林和支持向量机到神经网络。与更传统的模型相比,人工智能模型可以通过使用大量结构化和非结构化信息(包括社交媒体活动和交易历史等替代信息源)来提高预测准确性。然而,尽管具有明显的优势,但在信用风险评估中使用人工智能仍面临一些挑战,包括模型不透明、偏见和法规遵从性。这种“黑匣子”的性质,尤其是对于深度学习算法而言,会限制其可解释性,并使监管合规性和决策合理化变得复杂。为了解决这种“黑匣子”性质引起的问题,已经实施了可解释的人工智能技术,即 Shapley 值和 LIME,以提高模型的透明度,并提高利益相关者对决策支持系统的信任。本评论旨在评估人工智能和机器学习在信用风险评估中的当前应用,权衡各种模型的优势和局限性,并讨论信贷机构采用这些模型时所涉及的道德考虑和监管挑战。
