人工智能 (AI) 系统的准确性和灵活性通常以降低对其预测提供直观解释的能力为代价。这阻碍了人们对 AI 的信任,并阻碍了其在医疗保健领域的应用,而对误诊造成的责任和患者健康风险的担忧加剧了这种担忧。由于可解释机器学习领域的最新进展,为模型的预测提供解释是可能的。我们考虑了一组与抗生素处方记录和细菌分离株敏感性相关的医院入院数据。经过适当训练的梯度增强决策树算法,辅以 Shapley 解释模型,可预测可能的抗菌药物耐药性,耐药性的几率取决于患者的特征、入院数据、历史药物治疗和培养测试结果。应用这个基于 AI 的系统,我们发现与观察到的处方相比,它大大降低了治疗不匹配的风险。Shapley 值提供了观察/数据与结果之间的直观关联;所确定的关联与基于健康专家的先验知识的预期大致一致。研究结果以及归因信心和解释的能力支持人工智能在医疗保健领域的更广泛应用。
摘要 —如今,深度神经网络被广泛应用于对社会产生直接影响的各个领域。尽管这些模型通常表现出色,但它们长期以来一直被用作黑匣子。为了解决这个问题,可解释人工智能 (XAI) 已经发展成为一个旨在提高模型透明度和增加其可信度的领域。我们提出了一种再训练流程,该流程从 XAI 开始并利用最先进的技术不断改进模型预测。为此,我们使用 XAI 结果,即 SHapley Additive exPlanations (SHAP) 值,为数据样本提供特定的训练权重。这可以改进模型的训练,从而提高性能。为了对我们的方法进行基准测试,我们在现实生活和公共数据集上对其进行了评估。首先,我们在基于雷达的人数统计场景中执行该方法。之后,我们在公共计算机视觉数据集 CIFAR-10 上对其进行测试。使用基于 SHAP 的再训练方法进行的实验,相对于标准等权重再训练,在人数统计任务中实现了 4% 以上的准确率。此外,在 CIFAR-10 上,我们基于 SHAP 的加权策略的准确率比使用等权重样本的训练程序高出 3%。索引术语 — 雷达传感器、可解释的人工智能、深度学习、SHapley 加法解释
近来,使用机器学习模型和技术预测经济变量的情况越来越多,其动机是它们比线性模型具有更好的性能。尽管线性模型具有相当大的解释能力的优势,但近年来,人们加大了努力,使机器学习模型更具解释性。本文进行了测试,以确定基于机器学习算法的模型在预测非正规经济规模方面是否比线性模型具有更好的性能。本文还探讨了机器学习模型检测到的最重要的这种规模的决定因素是否与文献中基于传统线性模型检测到的因素相同。为此,从 2004 年到 2014 年,收集并处理了 122 个国家的观测数据。接下来,使用 11 个模型(四个线性模型和七个基于机器学习算法的模型)来预测这些国家非正规经济的规模。使用 Shapley 值计算了预测变量在确定机器学习算法产生的结果中的相对重要性。结果表明:(i)基于机器学习算法的模型比线性模型具有更好的预测性能;(ii)通过 Shapley 值检测到的主要决定因素与文献中使用传统线性模型检测到的主要决定因素一致。
摘要 - 社区微电网中的FAIR成本分配仍然是一个重大挑战,因为多个参与者之间具有不同负载概况,分布式能源资源和存储系统的复杂相互作用。传统的成本分配方法通常无法充分解决参与者贡献和收益的动态性质,从而导致成本分配不平等,并降低了参与者的满意度。本文提出了一个新颖的框架,将多目标优化与合作游戏理论整合在一起,以进行公平有效的微电网操作和成本分配。所提出的方法结合了混合组合线性编程,以最佳资源调度与沙普利价值分析,以进行公平的收益分配,从而确保系统效率和参与者满意度。在六个不同的操作场景中使用现实世界数据对该框架进行了验证,这表明技术和环保性能都有显着改善。结果表明,通过有效的储存集成,太阳能利用率从7.8%降低到62.6%,高峰降低到114.8%,并且每天的合作收益最高为$ 1,801.01。基于沙普利价值的分配实现了平衡的福利成本分配,净头寸在不同的负载类别的范围从-16.0%到 +14.2%,以确保可持续的参与者合作。
拒绝服务 (DDoS) 攻击可能会对在这些网络上运行的联邦学习模型的运行产生负面影响。当前检测 DDoS 的方法主要侧重于保护设备和数据,而忽略了模型保护。在本文中,我们利用并调整了联邦可解释人工智能 (FedXAI),这是一种使用 SHapley Additive exPlanations (SHAP) 设计的联邦学习,以增强物联网网络上联邦学习中的 DDoS 检测和解释。FedXAI 为模型提供了可解释的见解,这对于
摘要 - 本文研究一种储能共享模型,该模型由多个建筑物合作用于利用现场可再生用途和电网价格套利。为了最大程度地利用经济利益,我们共同考虑通过联盟游戏组成的ES规模,运营和成本分配。特别是,我们研究了基于核仁的公平前成本分配,该成本分配是通过最小化所有参与者的最小不满来解决公平性的。为了克服由隐式特征功能引起的指数计算负担,我们采用约束生成技术来逐渐通过利用稀疏的问题结构来逐步接近唯一的核仁。我们通过案例研究证明了该方法的公平性和计算效率,这些案例研究未通过现有的Shapley方法或比例方法提供。特别是,仅需要一小部分特征功能(对于20座建筑物来说少于1%)才能实现成本分配与沙普利方法所需的指数信息。尽管对比例方法的计算略有增加,但是在某些情况下,该方法可以确保公平性,而后者在某些情况下会失败。此外,我们证明了通过各个ES(IES)模型的ES共享模型增强了建筑物和社区经济的利益。因此,ES的总体值1大大提高(约1.83次)。
该研究表明,RF模型在预测30天死亡率方面的表现优于其他ML模型,其准确性为98.4%,ROC为94.3%。利用Shapley添加说明方法,RF模型确定了心源性休克,射血分数,急性冠状动脉综合征,估计的GFR,心脏骤停,年龄,机械心室支持,复杂病变,病变,病变位置,BMI,性别,性别和糖尿病是与30-Day Adday Adday Mortatity Post Perpci相关的变量。相比之下,传统的LR模型的准确性为98.2%,ROC的精度为92.9%。
Banipur摘要:人工智能(AI)和机器学习(ML)越来越成为医疗保健,金融和自治系统等关键领域决策的核心。但是,它们的复杂性使许多模型不透明,通常称为“黑框”模型,使用户难以理解或信任做出的决定。可解释的AI(XAI)试图通过在模型决策过程中提供透明度来解决这一问题。两种突出的XAI技术,Shap(Shapley添加说明)和石灰(局部可解释的模型解释)被广泛用于解释复杂的模型。本文介绍了摇动和石灰的比较分析,研究了其理论基础,优势,局限性和应用。Shap植根于合作游戏理论,并提供了一致可靠的解释,而Lime则提供了适合实时应用的有效局部解释。本文进一步讨论了应用这些方法的挑战,尤其是围绕可扩展性和实时决策,并突出了潜在的未来研究方向,包括结合了Shap和Lime优势的混合模型。Keywords: Explainable AI (XAI), Machine Learning Interpretability, SHAP (Shapley Additive Explanations), LIME (Local Interpretable Model-agnostic Explanations), Black-box Models, Model Transparency, Feature Attribution, Model-agnostic Explanations, Cooperative Game Theory, Local Explanations, Global Interpretability, Model Explainability, Bias Detection, Trust in AI, Ethical AI, Algorithm透明度,AI问责制,模型评估,混合解释模型,XAI中的计算复杂性。
贡献风险因素是按季度显示的人口统计、服务相关或健康相关因素,这些因素对单个单位内发生破坏性行为/事件的预测概率贡献最大。这些因素与单个单位相关,相对于单位的同行群体,并且特定于所选的风险类别。可以更改风险类别屏幕上的视图,以显示导致每个日历季度发生破坏性行为/事件增加或减少的主要风险因素。还为每个因素提供了 Shapley 值以及行动计划链接,以支持解决风险领域。
贡献风险因素是按季度显示的人口统计、服务相关或健康相关因素,这些因素对单个单位内发生破坏性行为/事件的预测概率贡献最大。这些因素与单个单位相关,相对于单位的同行群体,并且特定于所选的风险类别。可以更改风险类别屏幕上的视图,以显示导致每个日历季度发生破坏性行为/事件增加或减少的主要风险因素。还为每个因素提供了 Shapley 值以及行动计划链接,以支持解决风险领域。