执行摘要:美国联邦政府越来越多地使用人工智能 (AI) 系统来替代或支持决策。人工智能是一种基于计算机的系统,经过训练可以识别数据中的模式并应用这些模式来对特定任务的新数据进行预测。人工智能通常被视为一种中立的技术工具,为行政职能、公民服务访问和监管执法带来效率、客观性和准确性。然而,人工智能也可以编码和放大社会偏见。设计、实施和使用方面的选择可能会将现有的种族不平等嵌入人工智能中,导致种族偏见的人工智能系统产生不准确的预测或对种族群体造成有害后果。种族歧视的人工智能系统已经影响了刑事司法、医疗保健、金融系统和住房等公共系统。本备忘录讨论了开发、部署和使用种族偏见人工智能系统的主要原因,并提出了三种应对措施,以确保联邦机构认识到人工智能的好处并防止种族差异影响。联邦机构必须采取三项行动来防止种族偏见:1)增加人工智能设计师的种族多样性,2)实施人工智能影响评估,3)建立员工对自动化决策提出异议的程序。每项提案都针对联邦机构使用的人工智能生命周期的不同阶段,并有助于使美国政策与经济合作与发展组织 (OECD) 的《人工智能原则》保持一致。一、什么是人工智能中的种族偏见?为什么它是一个问题?联邦机构越来越多地采用人工智能 (AI) 并将关键决策委托给该技术。在 142 个最大的联邦机构中,45% 的机构使用或考虑使用人工智能,执行从设定保释金到检测欺诈等各种任务(Engstrom 等人,2020 年)。虽然人工智能可以为服务带来效率和客观性,但人工智能系统也会放大系统性不平等。人工智能可以复制和放大现有的偏见,产生对某个种族群体有害的预测。造成偏见的原因既有技术原因,也有社会原因:代码可以通过设计者和数据的偏见嵌入,而人工智能的使用可能会加剧社会系统中已经存在的偏见。当联邦机构使用人工智能预测时,人工智能预测将成为关键决策的基础,或者在自动决策的情况下,成为产生直接影响的原因。人工智能系统的生命周期是一个定义人工智能要解决的问题的迭代过程,
主要关键词