我们使用基于 SHapley 加法解释 (SHAP)、局部可解释模型不可知解释 (LIME) 和光梯度增强机 (LightGBM) 的最新可解释人工智能 (XAI) 来分析各种物理农业 (农业) 工人数据集。我们开发了各种有前景的身体感应系统,以增强农业技术进步、培训和工人发展以及安全性。然而,现有的方法和系统不足以深入分析人体运动。因此,我们还开发了可穿戴传感系统 (WS),它可以通过分析不同农田、草地和花园中的人体动态和统计数据来捕获与农业工人运动相关的实时三轴加速度和角速度数据。在使用用 Python 编写的新程序调查获得的时间序列数据后,我们与真正的农业工人和管理人员讨论了我们的发现和建议。在本研究中,我们使用 XAI 和可视化来分析有经验和缺乏经验的农业工人的多样化数据,以开发一种供农业主管培训农业工人的应用方法。
讨论•图2和3显示了SVM,KNN和LR模型的比较,表明SVM和KNN在准确性,精度,召回和F1得分等关键指标中的表现始终优于LR。•SVM总体上表现出最强大的性能,而KNN的精确性和召回率具有竞争力。lr虽然效率较低,但在更简单的情况下表现出了可接受的结果。•葡萄糖是最具影响力的特征,较高的值强烈促进阳性糖尿病预测。年龄和BMI也是重要的预测因子,其中较高的值通常表明风险增加。该图在视觉上区分高(粉红色)和低(蓝色)特征值及其相应的形状值,显示了单个特征如何影响模型的预测。•LinearSVC的表现最高,精度最高(0.76)和F1-SCORE(0.63)。
摘要:疟疾继续构成重大的全球健康威胁,抗药性疟疾的出现加剧了挑战,强调了对新抗疟药的迫切需求。虽然已经将几种机器学习算法应用于抗性化合物的定量结构 - 活性关系(QSAR)建模,但仍需要更需要进行更可解释的模拟,以提供有关药物作用的潜在机制,从而促进新化合物的合理设计。本研究使用轻梯度增强机(LightGBM)开发了QSAR模型。该模型与沙普利添加剂解释(SHAP)集成在一起,以增强可靠性。LightGBM模型在预测抗性激活方面表现出了卓越的性能,其AC屏性为86%,精度为85%,灵敏度为81%,特异性为89%,F1得分为83%。SHAP分析确定关键分子描述符,例如MaxDO和GATS2M,是抗疟疾活性的重要促进者。LightGBM与Shap的整合不仅增强了QSAR模型的预测性交流性,而且还为特征的重要性提供了宝贵的见解,从而有助于新的抗疟药的合理设计。这种方法弥合了模型准确性和可解释性之间的差距,为有效有效的药物疾病提供了强大的框架,以抵抗耐药性疟疾菌株。
抽象可解释的人工智能有益于将不透明的机器学习模型转换为透明的模型,并概述了每个人如何在医疗保健行业做出决策。理解影响糖尿病预测的决策的变量,这些变量可以由模型不可知的技术解释。在这个项目中,我们研究了如何为基于逻辑回归体系结构建立的机器学习模型生成本地和全局解释。我们使用可解释的AI技术石灰和摇动对糖尿病患者的253,680次调查反应进行了培训。石灰和外形来解释有关验证和测试集的逻辑回归和基于森林的随机模型产生的预测。通过讨论未来的工作,提供了对石灰和摇动之间各种实验发现的比较分析和讨论,以及它们在解释方面的优势和劣势。在测试集中,我们使用具有空间注意机制的LR体系结构的高精度为86%,证明了合并机器学习和可解释AI的可能性,以改善糖尿病的预测,诊断和治疗。我们还专注于石灰和塑造口译员的机器学习模型的各种应用,困难和可能的未来方向。
基于神经影像的脑年龄是一种通过机器学习 (ML) 预测生成的生物标记。脑年龄差距 (BAG) 通常定义为预测脑年龄与实际年龄之间的差异。研究一致报告称,精神分裂症 (SCZ) 患者的 BAG 呈阳性。然而,人们对哪些特定因素驱动基于 ML 的脑年龄预测知之甚少,导致对 BAG 的生物学解释有限。我们从三个公开数据库(COBRE、MCIC 和 UCLA)和一个早期精神分裂症的额外数据集(TOPSY)(82.5% 未接受治疗的首发样本)收集数据,并使用预训练的梯度提升树计算脑年龄。然后,我们应用 SHapley 加性解释 (SHAP) 来确定哪些脑特征会影响脑年龄预测。我们研究了每个特征和组的 SHAP 分数与 BAG 之间的相互作用。这些分析确定了总灰质体积(组 × SHAP 交互项 β = 1.71 [0.53; 3.23]; p 相关 < 0.03)是影响 SCZ 中观察到的 BAG 的特征,这些特征是最能预测大脑年龄的大脑特征之一。其他大脑特征在 SCZ 和 HC 之间的 SHAP 值也存在差异,但它们与 BAG 没有显著关联。我们将研究结果与非精神病性抑郁症数据集(CAN-BIND)进行了比较,其中相互作用并不显著。这项研究对于理解大脑年龄预测模型和 SCZ 中的 BAG 以及可能在其他精神疾病中的 BAG 具有重要意义。
交通事故仍然是死亡,伤害和高速公路严重中断的主要原因。理解这些事件的促成因素对于提高道路网络安全性至关重要。最近的研究表明,预性建模在洞悉导致事故的因素方面具有效用。但是,缺乏重点放在解释复杂的机器学习和深度学习模型的内部工作以及各种特征影响事故词典模型的方式。因此,这些模型可能被视为黑匣子,而利益相关者可能不会完全信任他们的发现。这项研究的主要目的是使用各种转移学习技术创建预测模型,并使用Shapley值对最有影响力的因素提供见解。预测合格中伤害的严重程度,多层感知器(MLP),卷积神经网络(CNN),长期短期记忆(LSTM),残留网络(RESNET),EfficityNetB4,InceptionV3,InceptionV3,极端的Incep-Tion(Xpection)(Xpection)(Xpection)和Mobilenet和Mobilenet。在模型中,MobileNet显示出最高的结果,精度为98.17%。此外,通过了解不同的特征如何影响事故预测模型,研究人员可以更深入地了解导致事故的造成的范围,并制定更有效的干预措施以防止发生事故。
核酸是重要的治疗方法,但是递送效率的问题继续阻碍诊所的广泛进步。输送系统对于封装和保护这些大型且高度敏感的有效载荷并改善组织内在化至关重要。1,2当前的病毒输送方法一直在努力克服障碍,包括有限的货物容量,3个制造成本,4和免疫。5,6个非病毒输送方法已在商业配方中得到证明,可用于外源性核酸药物的功能,可调节和不兼容的车辆。聚生物是建立的药物制剂,但由于性能较低而导致在体内携带核酸的利用不足。7然而,由于化学和物理调制的易于性以及可及时的制造,因此存在无限的聚合物输送车辆的潜力。7,8
图4:模型解释的形状结果。a)分形的第一个折叠的形状输出具有数据集。(b)BINNED功能数据集的第一个折叠的形状输出。shap值表示特征对模型输出的影响,正值表示对正类别的分类产生影响,而负值则表示相反。颜色映射指示该特征如何影响模型决策,例如,如果该功能具有高值和高的外形值,则此功能的增加是正类别的特征。
本文介绍了两种流行的可解释性工具,即局部可解释模型不可知解释 (LIME) 和 Shapley 加性解释 (SHAP),用于解释经过训练的深度神经网络所做的预测。本研究中使用的深度神经网络是在 UCI 乳腺癌威斯康星数据集上训练的。神经网络用于根据描述肿块的 30 个特征将患者体内发现的肿块分类为良性或恶性。然后使用 LIME 和 SHAP 来解释经过训练的神经网络模型所做的单个预测。这些解释进一步深入了解了输入特征与预测之间的关系。SHAP 方法还提供了输入对输出预测的影响的更全面的视图。结果还展示了使用 LIME 和 SHAP 获得的见解之间的共同点。虽然本文重点介绍了使用 UCI Breast Cancer Wisconsin 数据集训练的深度神经网络,但该方法可以应用于在其他应用程序上训练的其他神经网络和架构。在本研究中训练的深度神经网络提供了高水平的准确性。使用 LIME 和 SHAP 分析模型增加了非常理想的好处,即为训练模型提出的建议提供解释。
Banipur摘要:人工智能(AI)和机器学习(ML)越来越成为医疗保健,金融和自治系统等关键领域决策的核心。但是,它们的复杂性使许多模型不透明,通常称为“黑框”模型,使用户难以理解或信任做出的决定。可解释的AI(XAI)试图通过在模型决策过程中提供透明度来解决这一问题。两种突出的XAI技术,Shap(Shapley添加说明)和石灰(局部可解释的模型解释)被广泛用于解释复杂的模型。本文介绍了摇动和石灰的比较分析,研究了其理论基础,优势,局限性和应用。Shap植根于合作游戏理论,并提供了一致可靠的解释,而Lime则提供了适合实时应用的有效局部解释。本文进一步讨论了应用这些方法的挑战,尤其是围绕可扩展性和实时决策,并突出了潜在的未来研究方向,包括结合了Shap和Lime优势的混合模型。Keywords: Explainable AI (XAI), Machine Learning Interpretability, SHAP (Shapley Additive Explanations), LIME (Local Interpretable Model-agnostic Explanations), Black-box Models, Model Transparency, Feature Attribution, Model-agnostic Explanations, Cooperative Game Theory, Local Explanations, Global Interpretability, Model Explainability, Bias Detection, Trust in AI, Ethical AI, Algorithm透明度,AI问责制,模型评估,混合解释模型,XAI中的计算复杂性。