* 埃默里大学法学院人工智能、机器学习和数据科学法学教授。本文的一个版本于 2023 年 9 月 28 日在美国大学华盛顿法学院第十二届 Peter A. Jaszi 版权法杰出讲座上发表。本文是在我于 2023 年 7 月 12 日向美国参议院司法委员会知识产权小组委员会关于版权和生成式人工智能的听证会作证时起草的。感谢 Tonja Jacobi 的见解和鼓励。还要感谢 Bryan Choi、Peter Jaszi、Mark Lemley、Ed Lee、Fred von Lohmann、Pam Samuelson、Joshua Simmons、Ben Sobel 和 Ryan Whalen 的反馈。本文是为题为“新人工智能:ChatGPT 和其他新兴技术的法律和伦理影响”的研讨会准备的,该研讨会由《福特汉姆法律评论》主办,并由福特汉姆大学法学院神经科学与法律中心共同赞助,于 2023 年 11 月 3 日在福特汉姆大学法学院举行。
本文总结并评估了在人工智能 (AI) 系统中追求公平性的各种方法、手段和技术。本文分析了这些措施的优点和缺点,并提出了定义、衡量和防止人工智能偏见的实用指南。特别是,本文告诫不要使用一些过于简单但常见的评估人工智能系统偏见的方法,并提供了更复杂、更有效的替代方案。本文还通过为高影响力人工智能系统的不同利益相关者提供通用语言,解决了该领域普遍存在的争议和困惑。本文描述了涉及人工智能公平性的各种权衡,并提供了平衡这些权衡的实用建议。本文提供了评估公平性目标的成本和收益的技术,并定义了人类判断在设定这些目标中的作用。本文为人工智能从业者、组织领导者和政策制定者提供了讨论和指导,并为技术含量更高的受众提供了各种其他材料的链接。提供了大量现实世界的例子,从实践角度阐明了概念、挑战和建议。1.简介 1.1 本文结构 本文分为五个部分。在简介中,我们使用一个假设的案例研究来探索人工智能公平的重要原则并定义本文的范围。以下两节深入讨论了人工智能公平的两个广泛概念:对个人的待遇与模型的结果。第四部分描述了实现人工智能公平所涉及的一些固有权衡和实际挑战。在最后一节,我们提供了克服这些挑战的实用指南。在
如今,人工智能越来越多地被用于许多高风险决策应用中,其中公平性是一个重要问题。目前,已经有许多人工智能存在偏见并做出可疑和不公平决策的例子。人工智能研究界提出了许多方法来衡量和减轻不必要的偏见,但其中很少有方法涉及人类决策者的意见。我们认为,由于不同的公平标准有时无法同时满足,并且实现公平通常需要牺牲模型准确性等其他目标,因此,关键是要了解并遵守人类决策者关于如何在这些目标之间进行权衡的偏好。在本文中,我们提出了一个框架和一些示例方法来引出这些偏好并根据这些偏好优化人工智能模型。
自动语言处理经常用于人力资源 (HR) 部门,用于自动寻找候选人和评估简历。这些模型通常使用预先训练的语言模型,很难知道是否存在可能的偏见。最近,相互信息 (MI) 方法在获取与性别或种族等敏感变量无关的表示方面表现出色。但是,访问这些变量有时可能具有挑战性,并且在某些司法管辖区禁止使用它们。这些因素可能使检测和减轻偏见变得具有挑战性。在这种情况下,我们建议最小化候选人姓名与其简历或简历的潜在表示之间的 MI。该方法可以减轻敏感变量的偏见,而无需收集这些变量。我们首先将姓名表示投影到较小的空间中,以防止高维度中潜在的 MI 最小化问题,从而评估此方法。
决策系统的自动化导致了人工智能 (AI) 使用中的隐藏偏见。因此,解释这些决策和确定责任已成为一项挑战。因此,出现了一个新的算法公平性研究领域。在这个领域,检测偏见并减轻偏见对于确保公平和无歧视的决策至关重要。本文的贡献包括:(1) 对偏见进行分类,以及偏见与人工智能模型开发的不同阶段(包括数据生成阶段)的关系;(2) 修订公平性指标以审核数据和用它们训练的人工智能模型(在关注公平性时考虑不可知模型);(3) 对减轻人工智能模型开发不同阶段(预处理、训练和后处理)偏见的程序进行新的分类,并增加有助于生成更公平模型的横向行动。
• RQ4:当系统有利于或不利于自己群体时,受试者的公平感知和保留的变化是由受试者自己获得有利决策的前景引起的,还是由他们相对于其他群体的相对优势或劣势引起的?
广告和营销领域任何人都可以采取的最重要的第一步就是更明智地处理这些问题。多样性、公平性和包容性培训,以及对偏见如何渗透到我们的数据和算法中的实际理解,可以帮助推动整个行业的探究驱动型转型。有许多资源可用于介绍这些概念,4As 和 IAB 等行业组织正在开展代理和品牌培训计划。例如,4As Campaign Enlightenment 是一个密集的四节课研讨会,旨在帮助组织制定 DE&I 愿景并建立基于包容性的活动开发实践。WPP 旗下 Mindshare 等全球机构已经开发出专门的实践,专门致力于通过其 Intentional Media Framework 为人们和成长中的品牌创造更公平和包容的结果。
摘要算法求程(AR)通过提供可行的建议来解决自动决策中的不利结果。但是,当前的最新方法忽略了特征的相互依赖性,并且不考虑时间维度。为了填补这一空白,时间卡是一种整合时间信息的开创性方法。基于这种表述,这项工作调查了公平的背景,特别关注对边缘化人群群体的影响。由于漫长的等待时间会极大地影响社区的财务,教育和个人生活,探索与时间相关的因素如何影响这些群体的公平待遇对于建议潜在的解决方案以减少对少数人口的负面影响至关重要。我们的发现为对个人需求敏感的更公平的AR技术奠定了基础,最终提出了更公平的建议。
摘要在本章中,我们将三个不同的思想链整合在一起,认为“公平”的概念在各种文化之间差异很大。因此,确保人类互动符合相关的公平标准,需要深入了解部署AI-ai-ai-apecy系统的文化背景。不这样做,不仅会导致AI-ai-ai-ai-ai-a-a-ai-a-a-a-a-a-a-a-a-a-a-a-necy结果产生不公平的结果,而且还会降低对系统的合法性和信任。第一个链涉及技术行业中所采取的主要方法,以确保支持AI支持的系统是公平的。这种方法是将公平性降低到可以普遍应用的一些数学形式主义,这是一种典型的西方公平概念。第二链涉及公平的替代概念,它们源于东方哲学传统,即儒家美德伦理。了解来自各种文化背景的个人如何看待公平性(尤其是他们对人类与人类互动中公平性的信念)对于理解他们将如何解释人类互动中的公平性至关重要。基于这些哲学和行为差异的基础,正如实证研究所强调的那样,第三链融合了政治学和跨学科研究的见解。这种观点为设计支持AI的系统提供了宝贵的指导,以与上下文相关的公平标准保持一致。在制度决策的背景下研究现有的对公平性的信念为人们从AI生成的决策中的期望提供了宝贵的见解。这些期望通常包括关键要素,例如足够的透明度,明确的问责制以及与系统做出的决定的机制 - 所有这些都是程序公平的重要组成部分。不是采用一种千篇一律的方法来确保AI系统的设计和部署,必须仔细考虑包括社会政治和文化背景在内的操作环境,以确保该系统符合相关的公平标准。
自动化决策系统越来越多地用于我们的日常生活中,例如在贷款,保险和医疗服务的背景下。一个挑战是,这些决策系统可以证明对弱势群体的歧视(Dwork等,2012)。为了减轻此问题,已经提出了公平的限制(Hardt等,2016; Dwork等,2012),例如寻求实现某些统计奇偶校验属性。尽管公平的机器学习已经进行了广泛的研究,但大多数工作都考虑了静态设置,而无需考虑决策的顺序反馈效果。同时,算法决定可能会通过与社会的反馈循环来改变数据中基本统计模式的变化。反过来,这会影响决策过程;