摘要 法律裁决者和行政决策者做出的决策通常基于大量储存的经验,从中可以提取隐性的专业知识。这种专业知识可能是隐性的和不透明的,甚至对决策者自己来说也是如此,并且在将人工智能应用于法律领域的自动决策任务时会产生障碍,因为如果人工智能决策工具必须建立在领域专业知识的基础上,那么不透明性可能会激增。这引发了法律领域的特殊问题,这需要高度的问责制,从而需要透明度。这需要增强可解释性,这意味着各种利益相关者都需要了解算法背后的机制,以便提供解释。然而,一些人工智能变体(如深度学习)的“黑箱”性质仍未解决,因此许多机器决策仍然知之甚少。这篇调查论文基于法律和人工智能专家之间的独特跨学科合作,通过对相关研究论文进行系统调查,对可解释性范围进行了回顾,并对结果进行了分类。本文建立了一种新颖的分类法,将特定法律子领域中发挥作用的不同形式的法律推理与特定形式的算法决策联系起来。不同的类别展示了可解释人工智能 (XAI) 研究的不同维度。因此,该调查通过结合法律逻辑中的异质性,摆脱了先前单一的法律推理和决策方法:这一特征需要详细说明,在为法律领域设计人工智能驱动的决策系统时应予以考虑。因此,希望行政决策者、法院裁判员、研究人员和从业者能够对可解释性获得独特的见解,并利用该调查作为该领域进一步研究的基础。
主要关键词