结果:在这项研究中,为了获得具有高精度和强大可解释性的模型,我们利用了各种传统和尖端的特征选择和降低维度降低技术来处理自我相关特征和相邻的相关特征。然后将这些优化的特征送入学习排名以实现有效的DTA预测。在两个常用数据集上进行的广泛实验结果表明,在各种特征优化方法中,基于回归树的特征选择方法对于构建具有良好性能和稳健性的模型是最有益的。然后,通过利用Shapley添加说明值和增量功能选择AP-PRACH,我们可以获得高质量的功能子集由前150D特征组成,而Top 20D功能对DTA预测产生了突破性的影响。总而言之,我们的研究彻底验证了DTA预测中特征优化的重要性,并作为构建高性能和高解释模型的灵感。
摘要 — 人工智能 (AI),尤其是机器学习 (ML),在考古学中的应用正在蓬勃发展,开辟了文物分类、遗址位置预测和遗迹分析等新的可能性。这方面的主要挑战之一是缺乏精通机器学习的合格考古学家。在本研究中,我们介绍了 IArch,这是一种无需特定编程技能即可让考古学家进行可解释人工智能 (XAI) 数据分析的工具。它特别允许执行数据分析以验证现有的数据支持假设或生成新假设。该工具涵盖了应用 ML 的整个工作流程,从数据处理到解释最终结果。该工具允许使用监督和无监督 ML 算法,以及 SHapley Additive exPlanations (SHAP) 技术为考古学家提供对预测的整体和个体解释。我们通过蒙古草原上的匈奴墓地(公元前 100 年 / 公元 100 年)的数据证明了它的应用。
摘要 非技术损失 (NTL) 是许多公用事业公司试图解决的问题,通常使用黑盒监督分类算法。一般来说,这种方法取得了良好的效果。然而,在实践中,NTL 检测面临着技术、经济和透明度方面的挑战,这些挑战无法轻易解决,并且会损害预测的质量和公平性。在这项工作中,我们将这些问题置于为一家国际公用事业公司建立的 NTL 检测系统中。我们解释了如何通过从分类转向回归系统并引入解释技术来提高其准确性和理解力,从而缓解这些问题。正如我们在本研究中所展示的,回归方法可以成为缓解这些技术问题的一个很好的选择,并且可以进行调整以捕捉最引人注目的 NTL 案例。此外,可解释的人工智能(通过 Shapley 值)使我们能够在基准测试之外验证回归方法在这种背景下的正确性,并大大提高我们系统的透明度。
方法:有64名MCI和中度至重度白细胞病的参与者在2年内接受了基线MRI检查和年度神经心理学测试。痴呆症的诊断是基于既定标准。我们评估了基线时人口统计学,神经心理学和几种MRI特征,作为临床转变的预测因素。MRI功能包括视觉评估的MRI特征,例如裂缝,微粒和血管周围空间的数量以及定量MRI特征,例如皮质GM,海马,T 2高强度和脑脑WM的di索指标。此外,我们研究了高级定量特征,例如皮质GM和WM的分形维度(FD),该特征代表了从3D-T 1加权图像得出的组织结构复杂性的指数。为了评估对痴呆症过渡的预测,我们使用Shapley添加说明(SHAP)值采用了基于XGBoost的机器学习系统,以为机器学习模型提供解释性。
数字转换的增强对于业务开发而言至关重要。本研究采用机器学习来建立一个用于数字转型的预测模型,研究影响数字转换的关键因素,并提出相应的改进策略。最初,比较了四种常用的机器学习算法,表明极端的树格分类(ETC)算法表现出最准确的预测。随后,通过相关分析和反复消除,选择了影响数字转换的关键特征,从而导致相应的特征子集。Shapley添加说明(SHAP)值对预测模型进行可解释的分析,从而阐明了每个关键特征对数字变换的影响并获得关键特征值。最后,通过实际考虑,我们提出了一种定量调整策略,以增强企业中数字化转型的程度,该策略为数字开发提供了指导。
摘要 使用人工智能从 MRI 图像中检测和描绘脑肿瘤是医学 AI 面临的一项复杂挑战。最近的进展见证了各种技术被用于协助医疗专业人员完成这项任务。尽管机器学习算法在分割肿瘤方面很有效,但它们在决策过程中缺乏透明度,阻碍了信任和验证。在我们的项目中,我们构建了一个可解释的 U-Net 模型,专门用于脑肿瘤分割,利用梯度加权类激活映射 (Grad-CAM) 算法和 SHapley 加法解释 (SHAP) 库。我们依靠 BraTS2020 基准数据集进行训练和评估。我们采用的 U-Net 模型产生了有希望的结果。然后,我们利用 Grad-CAM 在图像中可视化模型关注的关键特征。此外,我们利用 SHAP 库来阐明用于预测患者生存天数的各种模型(包括随机森林、KNN、SVC 和 MLP)的预测,从而增强了可解释性。
摘要 - 机器学习的许多形式(ML)和人工智能(AI)技术在通信网络中采用以执行所有优化,安全管理和决策任务。而不是使用常规的黑框模型,而是使用可解释的ML模型来提供透明度和问责制。此外,由于网络的分布性和安全隐私问题,联合学习(FL)类型ML模型比典型的集中学习(CL)模型变得越来越流行。因此,研究如何使用可解释的AI(XAI)在不同的ML模型中找到解释能力是非常及时的。本文在网络中使用XAI在CL和FL的异常检测中进行了全面分析。我们将深层神经网络用作黑框模型,其中两个数据集,即UNSW-NB15和NSL-KDD,以及Shapley添加说明(SHAP)作为XAI模型。我们证明,FL的解释与客户端异常百分比不同。索引术语-6G,安全性,隐私,可解释的AI,中央学习,联合学习。
我们使用基于 SHapley 加法解释 (SHAP)、局部可解释模型不可知解释 (LIME) 和光梯度增强机 (LightGBM) 的最新可解释人工智能 (XAI) 来分析各种物理农业 (农业) 工人数据集。我们开发了各种有前景的身体感应系统,以增强农业技术进步、培训和工人发展以及安全性。然而,现有的方法和系统不足以深入分析人体运动。因此,我们还开发了可穿戴传感系统 (WS),它可以通过分析不同农田、草地和花园中的人体动态和统计数据来捕获与农业工人运动相关的实时三轴加速度和角速度数据。在使用用 Python 编写的新程序调查获得的时间序列数据后,我们与真正的农业工人和管理人员讨论了我们的发现和建议。在本研究中,我们使用 XAI 和可视化来分析有经验和缺乏经验的农业工人的多样化数据,以开发一种供农业主管培训农业工人的应用方法。
缩写 AUC = ROC 曲线下面积;BBB = 血脑屏障;CE = 对比增强;DMG = 弥漫性中线胶质瘤;DMG-A = DMG,H3 K27 改变;DMG-W = 无 H3 K27 改变的中线 HGG;GLCM = 灰度共生矩阵;GLDM = 灰度依赖矩阵;GLRLM = 灰度游程矩阵;GLSZM = 灰度大小区域矩阵;GNB = 高斯朴素贝叶斯;HGG = 高级别胶质瘤;ICC = 类间相关系数;LASSO = 最小绝对收缩和选择运算符;LR = 逻辑回归;ML = 机器学习;MLP = 多层感知器;PCNSL = 原发性中枢神经系统淋巴瘤;RF = 随机森林;ROC = 受试者工作特性;ROI = 感兴趣区域;SHAP = Shapley 加性解释;SVM = 支持向量机。提交于 2022 年 6 月 30 日。接受于 2022 年 11 月 15 日。引用时请注明 2022 年 12 月 23 日在线发布;DOI:10.3171/2022.11.JNS221544。 * KL 和 HC 对这项工作的贡献相同。
摘要人工智能(AI)纳入地球科学的整合已在空间建模和气候引起的危害评估的变革时代迎来了。这项研究探讨了可解释的AI(XAI)的应用,以解决传统的“ Black-Box” AI模型的固有局限性,从而强调了高风险领域(例如自然危害管理)中的透明度和可解释性。通过分析水文学危害(包括干旱,洪水和滑坡),这项工作突出了XAI提高预测准确性并促进可行见解的潜力越来越大。该研究综合了XAI方法论的进步,例如注意力模型,Shapley添加说明(SHAP)和广义添加剂模型(GAM)及其在空间危害预测和缓解策略中的应用。此外,该研究确定了数据质量,模型可传递性和实时解释性的挑战,这为将来的研究提出了途径,以增强XAI在决策框架中的效用。这一综合概述有助于在XAI采用XAI方面的弥合差距,在快速的环境变化时代,可以实现强大,透明和道德的方法来进行气候危害评估。