随着人工智能 (AI) 变得越来越普遍,监管机构越来越需要为此类系统做出的决策提供解释。然而,执行有意义的解释权的需求与机器学习系统满足此类法律要求的能力之间存在着持续的差距。监管机构对人工智能系统“解释权”的呼吁可以归因于解释在法律中的重要作用,解释是“理由给出”概念的一部分。因此,在本文中,我们研究了法律中理由给出的目的,以分析最终用户可解释性提供的理由是否能够充分满足这些目的。我们发现,理由给出的法律目的包括:(a) 做出更好、更公正的决策,(b) 促进正当程序,(c) 验证人类代理,以及 (d) 增强决策者的权威。使用这种方法,我们证明了终端用户可解释性不足以履行法律中的理由赋予职能,因为理由赋予职能依赖于其对人类决策者的影响。因此,终端用户可解释性未能或不适合履行第一、第二和第三个法律职能。相比之下,我们发现终端用户可解释性在第四个职能上表现出色,考虑到最近的终端用户可解释性研究趋势、大型语言模型的能力以及人类和机器操纵终端用户的能力,这一品质带来了严重风险。因此,我们认为在某些情况下,人工智能系统的解释权可能会给终端用户带来更多的伤害而不是好处。因此,这项研究具有一些重要的政策影响,因为它呼吁监管者和机器学习从业者重新考虑对终端用户可解释性和人工智能系统解释权的广泛追求。
21 Isabela Ferrari 和 Daniel Becker,《自动化决策的解释权:欧盟与巴西的比较分析》,《法律与新技术杂志》卷。 1,2018 年 10 月 - 12 月。22 Joshua A. Kroll 等人,《负责任的算法》,宾夕法尼亚大学法律评论,v. 165,2017。23 Andrew Burt,GDPR 中是否有针对机器学习的“解释权”?国际隐私专业人员协会(IAPP)。网址为:https://iapp.org/news/a/is-there-a-right-to-explanation-for-machine-learning-in-the-gdpr/ – 2020 年 6 月 8 日访问。24 Isabela Ferrari、Daniel Becker 和 Erik Navarro Wolkart,Arbitrium ex machina,Revista dos Tribunais,vol. 995/2018,2018年9月。
2020 年 11 月,加拿大隐私专员提议为决策主体创建 GDPR 启发的权利,并允许对违反这些权利的行为进行经济处罚。此后不久,为算法决策创建解释权的提议被纳入 C-11 法案《数字宪章实施法》。该评论提出,为运营商创建正确选择和监督人工智能代理的职责将是一种补充性的、可能比创建解释权更有效的问责机制。这些职责将是雇主正确选择和留住人类雇员职责的自然延伸。允许受害者根据疏忽雇用或监督人工智能系统作为代理的理论获得赔偿,将反映出他们日益增强的(但不是完全的)自主权,并避免受害者在证明其他责任理论的可预见性要素时面临的一些挑战。
建议上述数据,并且图片仅用于电池效果显示,Leoch保留了最终解释权。©l eoch。保留所有权利。商标和徽标是Leoch及其f fifiates的财产,除非另有说明。E&OE。E&OE。
建议上述数据,并且图片仅用于电池效果显示,Leoch保留了最终解释权。©l eoch。保留所有权利。商标和徽标是Leoch及其f fifiates的财产,除非另有说明。E&OE。E&OE。