I. 引言 在联邦政府中,人工智能 (AI) 已在各种行政流程和程序中扎根。在公众被人工智能的可能性和危险所吸引的同时,各机构已将该技术融入到广泛的机构职能中。2020 年,美国行政会议 (ACUS) 委托撰写的一份报告发现,64 个联邦机构中有 157 个使用人工智能的案例。1 仅仅两年后,美国政府问责局 (GAO) 的一项调查发现,超过 1,200 个当前和计划中的使用案例,其中 NASA 和商务部处于领先地位。2 ACUS 或 GAO 委托进行的研究可能仅呈现了人工智能在联邦政府中应用的部分情况。就人工智能对政府运作方式的长期影响而言,今天发生的事情可能也只是冰山一角。虽然人们欢迎以创新和进步的方式提供公共服务,但人工智能在监管执法中的广泛使用也会带来自然的权衡,包括违背公众信任、正当程序和专业知识等价值观——以及行政机构在美国宪法体系中地位的基础——以及基本的人性。3 需要对将人工智能纳入调查和执法活动的利弊进行仔细的机构分析。这些对话应该是公开的,应该超越主导当前评估模式的狭隘的、基于风险的分析,鼓励对机构的性质、机构通过日益依赖人工智能可能放弃什么以及对公众信任、合法性和公平性等关键价值观的整体影响进行长期思考。机构的考虑还应包括仔细和批判性地评估这些工具可能在哪些方面有效,而不是假设技术驱动的解决方案必然会改善运营。本文试图提供一个初步框架来评估人工智能在监管执法中的作用,并为考虑为此目的引入或扩大人工智能使用的机构提供建议。
主要关键词