可解释的 AI 用于生物医学应用
机构名称:
¥ 1.0

本文介绍了两种流行的可解释性工具,即局部可解释模型不可知解释 (LIME) 和 Shapley 加性解释 (SHAP),用于解释经过训练的深度神经网络所做的预测。本研究中使用的深度神经网络是在 UCI 乳腺癌威斯康星数据集上训练的。神经网络用于根据描述肿块的 30 个特征将患者体内发现的肿块分类为良性或恶性。然后使用 LIME 和 SHAP 来解释经过训练的神经网络模型所做的单个预测。这些解释进一步深入了解了输入特征与预测之间的关系。SHAP 方法还提供了输入对输出预测的影响的更全面的视图。结果还展示了使用 LIME 和 SHAP 获得的见解之间的共同点。虽然本文重点介绍了使用 UCI Breast Cancer Wisconsin 数据集训练的深度神经网络,但该方法可以应用于在其他应用程序上训练的其他神经网络和架构。在本研究中训练的深度神经网络提供了高水平的准确性。使用 LIME 和 SHAP 分析模型增加了非常理想的好处,即为训练模型提出的建议提供解释。

可解释的 AI 用于生物医学应用

可解释的 AI 用于生物医学应用PDF文件第1页

可解释的 AI 用于生物医学应用PDF文件第2页

可解释的 AI 用于生物医学应用PDF文件第3页

可解释的 AI 用于生物医学应用PDF文件第4页

可解释的 AI 用于生物医学应用PDF文件第5页

相关文件推荐

用于项目
2021 年
¥1.0
无人机上的应用
2019 年
¥13.0
应用参考
2022 年
¥7.0
应用手册
2013 年
¥3.0
应用说明
2002 年
¥2.0
生物医学计量学
2017 年
¥2.0
航空航天应用
2024 年
¥1.0
仅用于培训目的
2020 年
¥20.0
用于热气球活动
2021 年
¥7.0
烟草行业应用
2013 年
¥1.0
应用和计算数学部
2013 年
¥13.0
应用动态分析要点
2013 年
¥43.0
应用与计算数学部
2012 年
¥12.0
AN1294 应用说明
2004 年
¥1.0
应用人工智能 UC3M
2010 年
¥1.0
卫星遥感应用...
2011 年
¥4.0