虽然机器学习方法已经大大改善了教育研究的结果,但常见的缺陷在于结果的解释性。可解释的AI(XAI)旨在通过为分类决策提供透明的,概念上可以理解的解释,增强人类的理解和对外界的信任来填补这一空白。本文探讨了XAI的熟练程度和可读性评估方法,这些方法涵盖了一组465种语言复杂性测量。我们确定了将这些措施与不同水平的熟练程度和可读性相关联的理论描述,并使用使用监督的机器学习和Shapley添加性解释的交叉孔经验来验证它们。重申不仅强调了在葡萄牙人有效地熟练和可读性方面采取了多种复杂性措施的实用性,在能力分类任务中达到了0.70的最新精度,在可读性分类任务中的最先进的准确性为0.84,但它们很大程度上纠正了统一的研究,特别是在统计上,尤其是在supictions and-supictions interipical intercical intercripical intercripical intercrical interpical ne perxical ne perxical。
这项纵向研究利用了FASA成人队列研究(FACS)的数据。该研究最初包括在伊朗FASA农村地区35-70岁的1018名参与者,并在5年后使用随机抽样进行了3,000名参与者的随访。在机器学习(ML)模型中总共包括160个变量,并使用特征缩放和单热编码进行数据处理。Ten supervised ML algorithms were utilized, namely logistic regression (LR), support vector machine (SVM), random forest (RF), Gaussian naive Bayes (GNB), linear discriminant analysis (LDA), k-nearest neighbors (KNN), gradient boosting machine (GBM), extreme gradient boosting (XGB), cat boost (CAT), and light Gra-streent Boosting Machine(LGBM)。超参数调整是使用超参数的各种组合来识别最佳模型的。合成少数民族过度抽样技术(SMOTE)用于平衡训练数据,并使用Shapley添加说明(SHAP)进行了特征选择。
人工智能在使用医疗图像的医疗保健任务上表现出了有希望的表现。但是,有必要了解法律,道德和故障排除目的的AI模型的决策过程。本文档概述了可解释性工具箱的开发,该工具箱旨在提高手工制作的放射组学和医学成像中深度学习解决方案的透明度。对于手工制作的放射线学,该工具箱提供了用于生成Shapley添加说明,局部解释的模型 - 不合Snostic解释以及适用于任何机器学习模型的表征反事实的工具。为了深入学习,该工具箱提供了为2D和3D分类模型创建归因地图的功能,以及生成反事实图像说明的说明性示例。此外,工具箱还扩展了反事实框架以结合层的相关性传播,从而允许将临床变量纳入决策。最后,该文档展示了一个使用Python和简化构建的示例平台,该平台旨在在临床背景下验证这些解释,从而评估其在决策过程中的可用性和价值。可解释性工具箱可在以下链接中获得:https://github.com/zohaibs1995/radiomics_explainables_toolbox。
33 Mullainathan, S. 和 Spiess, J. 2017. 机器学习:一种应用计量经济学方法。34 Joseph, A. 2019. 沙普利回归:机器学习模型的统计推断框架。Bracke, P.、Datta, A.、Jung, C. 和 Sen, S. 2019. 机器学习在金融中的可解释性:违约风险分析中的应用。35 Bluwstein, K.、Buckmann, M.、Joseph, A.、Kang, M.、Kapadia, S. 和 Simsek, O. 2020. 信贷增长、收益率曲线和金融危机预测:来自机器学习方法的证据。36 Bholat, D.、Brookes, J.、Cai, C.、Grundy, K. 和 Lund, J. 2017. 发送坚定信息:PRA 监管人发给他们监管的银行和建筑协会的文本挖掘信件。 37 Proudman, J. 2018. 机器人监管─高级分析在审慎监管中的应用。 38 Hunt, S. 2017. 从地图到应用程序:机器学习和人工智能为监管者带来的强大力量 39 Russell, S. 2019. 与人类兼容:人工智能与控制问题。伦敦:Allen Lane。
抽象可解释的人工智能(XAI)在实现明智决定的过程中发挥了作用。现代各种供应链(SC)平台的出现改变了SC相互作用的性质,导致了显着的不确定性。这项研究旨在对现有的有关决策支持系统(DSS)的文献进行彻底分析,并在SC领域内对XAI功能的结合。我们的分析揭示了XAI对SC领域决策过程的影响。本研究利用Shapley添加说明(SHAP)技术使用Python机器学习(ML)过程分析在线数据。解释性算法是专门为通过为其产生的预测提供理由来提高ML模型的清醒性的。本研究旨在建立可衡量的标准,以识别XAI和DSS的组成部分,从而在SC的背景下增强决策。这项研究评估了对他们做出预测的能力,在线数据集的利用,所检查的变量数量,学习能力的发展以及在决策背景下进行验证的研究,强调了需要在不确定条件下涉及智能决策的其他探索领域的研究领域。
抽象可解释的人工智能(XAI)在实现明智决定的过程中发挥了作用。现代各种供应链(SC)平台的出现改变了SC相互作用的性质,导致了显着的不确定性。这项研究旨在对现有的有关决策支持系统(DSS)的文献进行彻底分析,并在SC领域内对XAI功能的结合。我们的分析揭示了XAI对SC领域决策过程的影响。本研究利用Shapley添加说明(SHAP)技术使用Python机器学习(ML)过程分析在线数据。解释性算法是专门为通过为其产生的预测提供理由来提高ML模型的清醒性的。本研究旨在建立可衡量的标准,以识别XAI和DSS的组成部分,从而在SC的背景下增强决策。这项研究评估了对他们做出预测的能力,在线数据集的利用,所检查的变量数量,学习能力的发展以及在决策背景下进行验证的研究,强调了需要在不确定条件下涉及智能决策的其他探索领域的研究领域。
摘要 - 心脏病仍然是全球健康的关注,要求对改善患者预后的早期和准确的预测。机器学习提供了有希望的工具,但是现有的方法面临准确性,阶级失衡和过度拟合问题。在这项工作中,我们提出了一种有效的可解释的递归特征消除,具有极端梯度提升(ERFEX)心脏病预测的框架。ERFEX利用可见的AI技术来识别关键特征,同时降低了阶级不平衡问题。我们在ERFEX框架内实施了各种机器学习算法,利用了支持矢量机器的合成少数群体过度采样技术(SVMSMOTE)和Shapley添加说明(SHAP),用于不平衡的集体处理和功能选择。在这些模型中,ERFEX框架内的随机森林和XGBoost分类器可实现100%的训练精度和98.23%的测试精度。此外,Shap Analysis还提供了对特征重要性的可解释见解,从而提高了模型的可信度。因此,这项工作的结果证明了Erfex对准确且可解释的心脏病预测的潜力,为改善临床决策铺平了道路。
本文介绍了两种流行的可解释性工具,即局部可解释模型不可知解释 (LIME) 和 Shapley 加性解释 (SHAP),用于解释经过训练的深度神经网络所做的预测。本研究中使用的深度神经网络是在 UCI 乳腺癌威斯康星数据集上训练的。神经网络用于根据描述肿块的 30 个特征将患者体内发现的肿块分类为良性或恶性。然后使用 LIME 和 SHAP 来解释经过训练的神经网络模型所做的单个预测。这些解释进一步深入了解了输入特征与预测之间的关系。SHAP 方法还提供了输入对输出预测的影响的更全面的视图。结果还展示了使用 LIME 和 SHAP 获得的见解之间的共同点。虽然本文重点介绍了使用 UCI Breast Cancer Wisconsin 数据集训练的深度神经网络,但该方法可以应用于在其他应用程序上训练的其他神经网络和架构。在本研究中训练的深度神经网络提供了高水平的准确性。使用 LIME 和 SHAP 分析模型增加了非常理想的好处,即为训练模型提出的建议提供解释。
自 2020 年代初以来,由于能源价格上涨,能源贫困一直在增加。这归因于地缘政治危机和将能源成本纳入二氧化碳定价,而这在历史上是一种外部因素。政策制定者和公民需要新的工具来解决这个问题,而能源社区被认为是缓解贫困的重要工具。本研究提出了两种与能源贫困和可再生能源社区 (REC) 相关的互补方法。第一种方法旨在定义和绘制能源贫困图,以支持政策制定针对性的措施和激励措施。利用公开可用的数据,提出了一种新方法,用于精细地绘制大片地区的能源贫困风险图。第二种方法以 REC 经理为中心,他们的任务是适当和公平地分享经济利益。制定了一系列多标准共享机制,并与现有机制(例如基于 Shapley 值)进行了比较,包括其中的能源贫困缓解以及对 REC 对其影响的评估。结果表明,共享方法可以成为通过 REC 减轻能源贫困的可行途径之一,同时不会损害非脆弱 REC 成员的经济。
心脏病学中的个性化治疗必不可少的是鉴定患者表型,并解释其与后期治疗后结局的关联,例如在经导管主动脉瓣置换术中。通过无监督的聚类方法获得表型后,一种方法是使用机器学习来预测群集成员资格,以解释定义每个群集的患者特征。在以前的工作中,我们由于易于解释性而使用了决策树,这在捕获数据中的复杂关系方面受到限制。我们通过将Shapley添加说明(SHAP)值与高级机器学习算法集成在一起来缓解此问题。为了展示我们的方法,我们使用来自581位TAVR患者的单中心数据确定了六个不同的患者簇,并使用K-均值进行了各种分类器来对群集成员进行分类,并具有最佳的梯度增强性能(F1得分:0.879)。形状值用于解释集群成员资格,揭示了影响结果的关键特征。例如,肌酐水平和环形区域是高风险表型的重要预测指标。这种基于Shap的方法将模型的复杂性与解释性平衡,从而为患者表型提供了强大的,详细的见解。1。简介