1. 简介 想象一下,你生活在一个不公正的社会,这个社会的成员都是值得信赖、无所不知、异常直率的预言家。你问预言家你的社会是否会公正,并被告知你生活在幸运的时代:在未来五年内,全面的制度变革将使你的社会变成一个公正的社会。五年过去了,确实发生了全面的制度变革。由于你的预言家是值得信赖的,所以你知道你的社会现在是公正的。但你不知道为什么它是公正的,因为事实证明,正义是通过开发和实施一个集中的算法决策系统来分配利益和负担、执行法律等来实现的。这个系统太复杂了,你——或者除了预言家之外的任何人——都无法理解它的底层结构或它做出的决定。计算机科学、法律和哲学领域关于人工智能可解释性的新兴文献集中于解释人工智能的能力具有工具价值的各种方式。例如,可解释的人工智能被认为对追索权或对决策提出异议很有价值,这两者都是机构合法性和公平性的必要条件(Ventkatasubramanian 和 Alfano 2020;Vredenburgh 2021)。从该文献的角度来看,你相信神谕是无所不知的,那就错了。如果你的社会确实因其不透明性而令人反感,那么它一定是不公正的。然而,我想让你假设一下,想象中的社会确实是完全公正的。你是否仍然直觉地认为上述社会在某种程度上令人反感?我想很多人都这么认为。我将从解释的非工具价值的角度来解释和捍卫这种直觉。对组织和社会机构的结构和运作的解释具有非工具价值,因为它们构成了反思澄清我们每个人都不得不对自己的全面实践取向的基础。
主要关键词