* 北京大学国际法学院法学教授。感谢所有对本文相关演讲发表评论的人,包括在吉隆坡的 2018 LexTech、2019 年在北京举行的 ThinkIn China 和 2019 年在阿联酋艾因举行的阿联酋大学年会“人工智能与正义”。1. Cary Coglianese & David Lehr,《机器人监管:机器学习时代的行政决策》,105 G EO. LJ 1147, 1148 (2017)(“设想政府机构可以有效地通过机器人制定法律的未来已不再是幻想,这一前景不难理解地让人联想到个人将自由交给计算机霸主控制的反乌托邦形象。”); Eugene Volokh,首席大法官机器人,68 D UKE LJ 1135, 1135 (2019)(“同样的[人工智能简报写作]技术可以用来创造人工智能法官,我们应该接受这样的法官,因为
本章探讨了技术冲击与“法治”之间的相互作用。它通过分析一类松散相关的计算技术的影响来实现这一目标,这些技术被称为“机器学习”(ML),或者更准确地说是“人工智能”(AI)。这些工具目前用于执法的预审阶段,例如促进选择税务和监管调查的目标(Coglianese 和 Lehr,2016 年)。它们在裁决过程中也越来越多地被使用,例如,在审前保释决定期间促进和指导对个人暴力风险的确定(Huq,2019 年)。关于代码驱动的对应物普遍取代人类判断的预测比比皆是(Re 和 Solow-Niedemann,2019 年;Volokh,2019 年;但参见 Wu,2019 年)。但几乎同样地,这种前景也遭到了强烈谴责。预计会对司法系统的公平性、透明度和公正性产生影响,这是这种抵制的主要原因(Michaels,2019 年;O’Neil,2016 年)。即使这些批评不是明确以法治为框架的,它们也常常与通常属于该范畴的规范性关注重叠或紧密相关。