通过《法律与当代问题》这样的跨学科出版物来探讨算法决策和人工智能 (AI) 的新兴用途问题似乎很合适。毕竟,这些文章的核心 AI 工具正在全球几乎每个行业和每个角落部署。这本小册子汇集了哲学、伦理学、数据科学、计算机科学和法律领域的领先思想家,他们来自德国、比利时、英国、哥伦比亚和美国。这种国际化和跨学科的方法为探索社会技术系统提供了特殊价值,在这些系统中,AI 影响权利和责任的有意义的决定、分配和分配。正是因为 AI 影响个人和职业机会、正当程序和法治,任何脱离它所塑造的系统而进行的狭隘探索——短视的技术调查可能无法包括更广泛的伦理和社会学审查——都可能是误导和潜在有害的。如此狭隘的探索不仅可能无法优先考虑我们珍视的权利和价值观,还可能削弱我们管理人工智能的能力以及它对我们希望保护的社会和政治体系的影响。因此,理想的情况是像《法律与当代问题》这样的论坛,将律师、伦理学家、技术专家、工程师和其他人聚集在一起,跨学科地考虑这些社会技术系统。在寻求积极的人工智能未来时,需要一个村庄。然而,如此庞大的话题也需要一些限制。正如本书的标题“黑箱算法与法治”所暗示的那样,我们在这里施加了两个限制。首先,我们关注被称为“黑箱人工智能”的特定人工智能子集。在其文章《黑箱社会:控制金钱和信息的秘密算法》中,特约作者 Frank Pasquale 指出,黑箱系统就是那些“被秘密逻辑所殖民”的系统。1 他在本卷中的文章补充道,“‘黑箱人工智能’是指任何自然语言处理、机器学习、文本分析或类似软件,它们使用数据主体无法访问的数据,或部署同样无法访问的算法,或部署过于复杂而无法简化为一系列数据主体可理解的规则和规则应用的算法。”换句话说,
主要关键词