摘要 许多做出重要决策的人工智能系统都是黑匣子:它们的运作方式甚至对开发人员来说都是不透明的。这是因为它们非常复杂,而且是经过训练而非编程的。缓解黑匣子系统不透明度的努力通常从透明度、可解释性和可解释性的角度进行讨论。然而,对于这些关键概念的含义几乎没有达成一致,这使得很难判断缓解不透明度方法的成功或前景。我主张对这些关键概念进行统一的解释,将理解的概念视为基础。这使得科学哲学和理解认识论的资源能够帮助指导缓解不透明度的努力。这种理解解释的第一个重要好处是,它化解了对事后可解释人工智能 (XAI) 方法的主要原则性反对意见之一。这种“合理化反对意见”认为 XAI 方法提供的只是合理化,而不是真正的解释。这是因为 XAI 方法涉及使用单独的“解释”系统来近似原始黑箱系统。这些解释系统的功能与原始系统完全不同,但 XAI 方法根据解释系统的行为对原始系统进行推断。我认为,如果我们将 XAI 方法视为理想化的科学模型,这种合理化担忧就会消失。理想化的科学模型歪曲了其目标现象,但能够提供对其目标的重要而真实的理解。
主要关键词