详细内容或原文请订阅后点击阅览
准确性与可解释性的权衡是谎言
为什么从更大的角度来看,黑盒模型并不更准确继续阅读《走向数据科学》»
来源:走向数据科学准确性与可解释性权衡是谎言
为什么,如果我们查看大图,黑框模型不是更准确的
Nathan Cima Unplash当我刚开始作为数据科学家时,我期望使用最先进的模型。 XGBoost,神经网络。这些事情复杂而有趣,肯定会推动改进。我几乎不知道,这些模型面临障碍 - 向其他人解释了它们。
谁认为您需要了解自动化系统做出的决定?
令我高兴的是,我偶然发现了模型不可知论方法的兔子孔。有了这些,我可以在两全其美。我可以训练黑匣子模型,然后使用Shap,Lime,PDP,Ales和Friedman的H-STAT等方法进行解释。我们不再需要交易准确性以实现可解释性!
模型不可知论 Shap 石灰 PDPS ALES 弗里德曼的H-Stat不这么快。这种想法有缺陷。
在我们追求最佳性能时,我们经常错过机器学习的点:也就是说,对新看不见的数据进行准确的预测。让我们讨论为什么复杂的模型并不总是实现这一目标的最佳方法。即使我们可以使用其他方法来解释它们。