糖尿病(DM)是一项全球健康挑战,需要一种创新的早期检测方法和有效管理的方法。本研究旨在比较糖尿病类型分类中的随机森林和XGBoost算法,并使用可解释的AI(XAI)技术(例如Shap和Lime)来增加模型的解释。该研究方法包括一个公共数据集处理,其中包含70,000个条目,具有34个医疗功能,使用优化参数和解释分析的培训模型。结果表明,XGBoost具有较高的准确性(90.6%),概括良好,而随机森林的训练时间效率较高。分析识别主要因素的特征,例如年龄,血糖水平和在怀孕期间的体重增加而影响预测。这一发现提供了支持医疗决策的准确透明模型指南。
方法:从2019年10月1日至2020年9月30日之间,从中国三级医院的2,329例成年患者组成的同类中收集了数据。选择了36个临床特征作为模型的输入。我们通过机器学习(ML)方法训练了模型,包括逻辑回归,决策树,随机森林(RF),多层感知器和光梯度增强。我们评估了五个ML模型的性能,评估指标为:ROC曲线(AUC)下的面积,准确性,F1得分,灵敏度和特异性。在2020年10月1日至2022年4月1日之间,另一批2,286例患者的数据被用来验证模型在内部验证集中表现最佳的模型。Shapley添加说明(SHAP)方法用于评估特征重要性并解释该模型的预测。
方法:通过电子病历(EMR)收集了出现在四川省人民医院的免疫临床妊娠患者。数据分为训练集,测试集分别为8:2。进行了比较,以评估用于临床应用的传统怀孕风险评估工具的性能。该分析涉及评估临床治疗的成本效益,评估模型的性能并确定其经济价值。数据采样方法,特征筛选和机器学习算法用于开发预测模型。这些模型使用训练集的10倍交叉验证对这些模型进行了验证,并使用boottrapping进行了测试集的外部验证。模型性能由特征曲线(AUC)下的区域评估。基于最佳参数,开发了流产风险的预测模型,并使用Shapley添加剂扩展(SHAP)方法来评估最佳模型特征贡献。
背景和客观:在血液学恶性肿瘤(HM)的免疫功能低下患者中针对SARS-COV-2的疫苗接种对于降低Covid-19的严重程度至关重要。尽管进行了疫苗接种的努力,但超过三分之一的HM患者仍然没有反应,增加了严重突破感染的风险。本研究旨在利用机器学习对COVID-19动力学的适应性,有效地选择特定于患者的特征以增强预测并改善医疗保健策略。重点介绍了复杂的共同食物学联系,重点是可解释的机器学习,为临床医生和生物学家提供宝贵的见解。方法:该研究评估了一个患有1166例血液疾病患者的数据集。输出是完整的COVID-19疫苗接种后血清学反应的成就或未实现。采用了各种机器学习方法,其最佳模型基于指标,例如曲线(AUC)下的面积,灵敏度,特异性和MATTHEW相关系数(MCC)。单个形状值被视为,并将主成分分析(PCA)应用于这些值。然后在确定的簇中分析患者概况。结果:支持向量机(SVM)作为表现最佳的模型出现。PCA应用于SVM衍生的外形值,导致四个完全分开的簇。这些簇的特征是产生抗体的患者比例(PPGA)。群集2的PPGA最低(33.3%),但样本量较小,有限的结论性发现。群集1,PPGA第二高(69.91%)包括侵袭性疾病和导致免疫缺陷增加的因素的患者。群集3,代表大多数人群,与群集1相比,抗体产生率很高(84.39%)和更好的预后。群集4,PPGA为66.33%,包括B细胞非霍奇金患者在皮质类固醇治疗中的淋巴瘤。结论:该方法使用机器学习和可解释的AI(XAI)成功识别了四个独立的患者簇。然后,我们根据COVID-19疫苗接种后产生抗体的HM患者的百分比分析了每个簇。该研究表明该方法对其他疾病的潜在适用性强调了可解释的ML在医疗保健研究和决策中的重要性。
摘要 在过去的二十年里,人工智能 (AI) 方法已经应用于智能电网的各种应用,例如需求响应、预测性维护和负荷预测。然而,由于缺乏可解释性和透明度,人工智能仍然被认为是一个“黑匣子”,尤其是对于涉及许多参数的太阳能光伏 (PV) 预测而言。可解释人工智能 (XAI) 已成为智能电网领域的一个新兴研究领域,因为它解决了这一空白并有助于理解 AI 系统做出预测决策的原因。本文介绍了使用 XAI 工具(例如 LIME、SHAP 和 ELI5)进行太阳能光伏能源预测的几个用例,这些用例有助于将 XAI 工具用于智能电网应用。了解基于人工智能的预测模型的内部工作原理可以深入了解应用领域。这种洞察可以改进太阳能光伏预测模型并指出相关参数。
项目摘要:在这个项目中,我们旨在通过先进的深度学习技术从可穿戴脑电图 (EEG) 数据中解码人脑信号。我们的方法包括清理和预处理原始 EEG 数据以确保其质量,然后尝试各种深度学习模型,包括卷积/循环神经网络 (CNN/RNN) 和 LSTM,以准确分类人脑信号。我们使用准确度、精确度、召回率和 F1 分数等综合指标评估这些模型,并采用交叉验证以确保稳健的性能。为了增强我们模型的可解释性,我们专注于 SHapley Additive exPlanations (SHAP)、Local Interpretable Model-agnostic Explanations (LIME) 和 Grad-CAM 等方法,为决策过程提供见解。我们将提供 EEG 数据集,该数据集已获得适当的伦理批准,是我们之前使用消费者可穿戴设备进行的研究收集的。加入我们,共同打造未来的酷炫科技!
摘要:金融当局要求银行的信用评分模型具有可解释性。本文提出了一种可解释的人工智能 (XAI) 模型,用于预测挪威银行提供的无担保消费贷款独特数据集上的信用违约。我们将 LightGBM 模型与 SHAP 相结合,从而能够解释影响预测的解释变量。LightGBM 模型明显优于银行的实际信用评分模型(逻辑回归)。我们发现,LightGBM 模型中预测违约的最重要解释变量是已用信用余额的波动性、剩余信用占总信用的百分比以及客户关系的持续时间。我们的主要贡献是在银行业实施 XAI 方法,探索如何应用这些方法来提高最先进的 AI 模型的可解释性和可靠性。我们还提出了一种分析改进的信用评分模型的潜在经济价值的方法。
摘要 —可解释人工智能 (XAI) 旨在为用户提供可理解的解释。SHAP、LIME 和 Scoped Rules 等 XAI 算法计算机器学习预测的特征重要性。尽管 XAI 引起了广泛研究关注,但将 XAI 技术应用于医疗保健以指导临床决策具有挑战性。在本文中,我们对 XAI 方法给出的解释进行了比较,作为分析复杂电子健康记录 (EHR) 的第三级扩展。利用大规模 EHR 数据集,我们根据 XAI 模型估计的预测重要性比较 EHR 的特征。我们的实验结果表明,所研究的 XAI 方法会根据具体情况生成不同的顶级特征;它们在共享特征重要性方面的差异值得领域专家进一步探索,以评估人类对 XAI 的信任。索引词 —可解释的人工智能、黑盒、玻璃盒、机器学习、电子健康记录
摘要。机器学习和人工智能模型有可能简化公共服务和政策制定。然而,模型揭示的模式往往比模型的性能更重要。可解释人工智能 (XAI) 最近被引入作为一组技术,可以解释模型做出的单个决策。尽管 XAI 在各个领域都已被证明很重要,但在公共管理中使用相关技术的需求直到最近才出现。本文的目的是探讨使用以链接开放统计数据形式提供的高质量开放政府数据创建 XAI 模型的价值和可行性。为此,介绍了一种利用链接开放统计数据创建可解释模型的过程。此外,还描述了一个案例研究,其中利用来自苏格兰开放统计门户的链接数据来预测和解释数据区平均房价高于苏格兰平均价格的概率。XGBoost 算法用于创建预测模型,并使用 SHAP 框架来解释它。
参考书目:1.根纳季·奥西波夫。人工智能:研究现状和未来展望“http://www.raai.org/about/persons/osipov/pages/ai/ai.html 2.安德烈亚斯·卡普兰 (Andreas Kaplan)、迈克尔·海恩莱因 (Michael Haenlein) Siri,Siri,在我手中:谁是这片土地上最美丽的人?关于人工智能的解释、说明和含义https://www.sciencedirect.com/science/article/pii/S0007681318301393#!3.杰克·科普兰。什么是人工智能?http://www.alanturing.net/turing_archive/pages/Reference%20Articles/what_is_AI/What%20 is%20AI 09.html 4. https://medium.com/nuances-of-programming/python-libraries-for-interpretable-machine-learning-models-1bac19599eaa 5. https://www.gartner.com/smarterwithgartner/gartner-top-10-data-analytics-trends/ 6. https://rb.ru/opinion/uzhe-ne-black-box/ 7. https://ru.wikipedia.org/wiki/Теория_игр 8. https://ru.wikipedia.org/wiki/Вектор_Шапли 9. https://suilin.ru/post/conversion_factors/ 10. https://github.com/slundberg/shap 11. https://habr.com/ru/post/428213/ 12. https://christophm.github.io/interpretable-ml-book/shapley.html 13. https://towardsdatascience.com/explain-your-model-with-the-shap-values-bc36aac4de3d