不要再询问模型是否可解释

开始询问解释应该回答什么问题。停止询问模型是否可解释的帖子首先出现在走向数据科学上。

来源:走向数据科学

关于人工智能的可解释性,从错误的问题开始。研究人员、从业者甚至监管机构经常询问模型是否可解释。但这个框架假设可解释性是模型拥有或缺乏的属性。事实并非如此。

模型在抽象中是不可解释或不可解释的。这里我们谈论的不是本质上透明的模型,例如线性回归或决策树,它们的推理可以直接检查。相反,我们关心的是复杂的模型,其决策过程无法立即访问。

因此,可解释性不是复选框、可视化或特定算法。更好地理解它是一组允许人类分析模型以回答特定问题的方法。改变问题,解释的用处就会随之改变。那么,真正的问题不在于模型是否可解释,而在于我们需要解释什么。

一旦我们以这种方式看待可解释性,就会出现更清晰的结构。在实践中,解释始终服务于三种不同的科学功能:诊断失败、验证学习和提取知识。这些角色在概念上是不同的,即使它们依赖于相似的技术。理解这种区别有助于澄清何时需要可解释性以及我们实际需要什么样的解释。

可解释性作为诊断

可解释性的第一个作用出现在模型开发期间,此时模型仍然是实验对象。在这个阶段,它们是不稳定的、不完美的,而且常常是错误的,而聚合指标无法揭示这一点。准确性告诉我们模型是否成功,但不告诉我们失败的原因。两个模型可以在依赖完全不同的决策规则的情况下实现相同的性能。一个人可能正在学习真实的结构;另一个可能是利用偶然的相关性。

作为验证的可解释性

作为知识的可解释性

一个概念,三个功能