本文介绍了两种流行的可解释性工具,即局部可解释模型不可知解释 (LIME) 和 Shapley 加性解释 (SHAP),用于解释经过训练的深度神经网络所做的预测。本研究中使用的深度神经网络是在 UCI 乳腺癌威斯康星数据集上训练的。神经网络用于根据描述肿块的 30 个特征将患者体内发现的肿块分类为良性或恶性。然后使用 LIME 和 SHAP 来解释经过训练的神经网络模型所做的单个预测。这些解释进一步深入了解了输入特征与预测之间的关系。SHAP 方法还提供了输入对输出预测的影响的更全面的视图。结果还展示了使用 LIME 和 SHAP 获得的见解之间的共同点。虽然本文重点介绍了使用 UCI Breast Cancer Wisconsin 数据集训练的深度神经网络,但该方法可以应用于在其他应用程序上训练的其他神经网络和架构。在本研究中训练的深度神经网络提供了高水平的准确性。使用 LIME 和 SHAP 分析模型增加了非常理想的好处,即为训练模型提出的建议提供解释。
主要关键词