* 埃默里大学法学院人工智能、机器学习和数据科学法学教授。本文的一个版本于 2023 年 9 月 28 日在美国大学华盛顿法学院第十二届 Peter A. Jaszi 版权法杰出讲座上发表。本文是在我于 2023 年 7 月 12 日向美国参议院司法委员会知识产权小组委员会关于版权和生成式人工智能的听证会作证时起草的。感谢 Tonja Jacobi 的见解和鼓励。还要感谢 Bryan Choi、Peter Jaszi、Mark Lemley、Ed Lee、Fred von Lohmann、Pam Samuelson、Joshua Simmons、Ben Sobel 和 Ryan Whalen 的反馈。本文是为题为“新人工智能:ChatGPT 和其他新兴技术的法律和伦理影响”的研讨会准备的,该研讨会由《福特汉姆法律评论》主办,并由福特汉姆大学法学院神经科学与法律中心共同赞助,于 2023 年 11 月 3 日在福特汉姆大学法学院举行。
近年来,人工智能 (AI) 已成为我们日常生活中不可或缺的一部分,帮助我们做出决策。在这种交互过程中,AI 算法通常使用人类行为作为训练输入。因此,重要的是要了解人们在训练 AI 时是否会改变他们的行为,以及当训练对他们没有好处时他们是否会继续这样做。在这项工作中,我们在最后通牒游戏的背景下进行行为实验来回答这些问题。在我们的版本中,参与者被要求决定是否接受或拒绝其他人类参与者或 AI 提出的金钱分割提议。一些参与者被告知他们的选择将用于训练 AI,而其他参与者没有收到此信息。在第一个实验中,我们发现参与者愿意牺牲个人收入来训练 AI 变得公平,因为他们变得不太倾向于接受不公平的提议。第二个实验重复并扩展了这一发现,结果显示参与者有动力训练人工智能,即使他们将来永远不会遇到它。这些发现表明人类愿意付出成本来改变人工智能算法。此外,它们表明,人工智能训练过程中的人类行为不一定与基线偏好一致。这一观察结果对人工智能发展提出了挑战,表明人工智能算法在推荐选择时考虑其对行为的影响非常重要。
人工智能 (AI) 系统现在影响着人们生活各个方面的决策,从他们阅读的新闻文章到他们是否获得贷款。虽然使用人工智能可能会在做出这些重要决策时提高准确性和效率,但最近的新闻和研究报告表明,人工智能模型可能会表现出不公平的行为:从招聘模型中表现出的性别偏见,到累犯预测系统中的种族偏见。本论文通过考虑在创建人工智能系统的整个过程中所做的选择(即建模管道)如何影响公平行为,探索了理解和缓解人工智能公平问题的新方法。首先,我将展示如何通过考虑模型的端到端管道来扩展我们对不公平模型行为的理解。具体来说,我的工作通过展示建模流程某些部分(即学习规则)的不稳定性如何导致不公平,因为重要决策依赖于任意的建模选择,从而引入了人工智能系统稳定性与公平性之间的联系。其次,我将讨论如何考虑机器学习流程可以帮助我们扩展偏见缓解技术工具箱。在一个案例研究中,研究税务审计实践中与收入相关的公平性,我将展示在人工智能创建流程中进行的干预措施(即使这些干预措施表面上与公平性无关)不仅可以有效地提高公平性,而且通常可以减少预测效用和公平性之间的权衡。最后,我将概述人工智能建模流程为从业者在创建模型时提供的灵活性带来的好处和危险,包括讨论这种灵活性的法律影响,我称之为模型多样性。
基于之前在伊灵(伦敦西北部)的参与,4 本研究通过“疫苗(不)公平”的视角,在两个城市环境(马赛(北部地区)和伦敦(伊灵区)作为比较对象)中调查了这些差异。为了填补文献空白,我们关注当地参与者的作用,认为地方政府、卫生参与者、社区团体和居民在塑造疫苗(不)公平方面发挥着关键作用。我们的团队还将当地疫苗不平等现象定位在他们所在社区 5 内——包括更广泛的政治、经济和其他结构性背景和不平等——认识到许多因素可能以复杂的方式相互作用产生不平等。我们还采用“道德框架”的概念来了解人们如何理解和寻求疫苗接种。我们还试图了解这种地方动态是否以及如何反映在地方政府推广和提供 COVID-19 疫苗的方法中。
蓝色经济 (BE) 吸引了不同利益群体对海洋的关注,人们越来越关注如何使海洋更加公平和包容。目前,多样性、社会公平和包容性考虑在围绕蓝色经济的讨论中并未得到重视,而且一直被忽视和低估。本文回顾了蓝色经济中持续存在的社会不平等以及社会不同群体之间的利益和成本分配。它还探讨了公平为何重要以及如何实现公平。呼应了要求代表性不足或边缘化的社会群体获得公平的回报份额的呼吁,这可能比他们迄今为止获得的回报更多。我们的分析显示,1988 年至 2017 年间,一家总部位于德国的公司注册了所有已知海洋遗传资源的约 39%,而 2018 年亚洲的三家公司控制着海产品行业 30% 的市场份额。这些发现表明顶级公司对海洋空间的高度整合。因此,本文认为,在BE投资中排除股权对价可能会破坏海洋活动,例如海洋野生动物保护计划,从而可能扰乱海洋可持续发展议程。
摘要算法求程(AR)通过提供可行的建议来解决自动决策中的不利结果。但是,当前的最新方法忽略了特征的相互依赖性,并且不考虑时间维度。为了填补这一空白,时间卡是一种整合时间信息的开创性方法。基于这种表述,这项工作调查了公平的背景,特别关注对边缘化人群群体的影响。由于漫长的等待时间会极大地影响社区的财务,教育和个人生活,探索与时间相关的因素如何影响这些群体的公平待遇对于建议潜在的解决方案以减少对少数人口的负面影响至关重要。我们的发现为对个人需求敏感的更公平的AR技术奠定了基础,最终提出了更公平的建议。
这是不平凡的一年,不同于以往任何一年,危机重重,挑战着密歇根大学社区乃至整个世界。除了新冠疫情及其毁灭性和分散性影响之外,我们还面临着种族压迫和社会不公的持续证据——激发了“黑人的命也是命”抗议和反抗议活动。这些事件因分裂性政治竞选的季节而加剧。在这一前所未有的挑战不断展开的一年里,我们树立了最高目标,坚定了决心,重新致力于多元化、公平和包容 (DEI) 的原则。在现有的强大 DEI 基础设施的基础上,我们推出并继续实施大胆的新举措,接触最脆弱的群体并支持正在进行的项目。我们还找到了创新的方法来重塑校园教育和工作环境,并确保这些环境反映了大学坚定不移的承诺,即建立一个所有人都有平等和可及的机会获得成功和被倾听的社区。
Chandra Farley 是 ReSolve 的首席执行官,ReSolve 是一家咨询公司,其使命是通过创建以公平为中心的交付基础设施来增加气候正义倡议的影响力。她之前曾担任南方公平伙伴关系的公正能源总监,并在 Southface 能源研究所工作。Farley 创立了“良好能源项目”,其愿景是将黑人女性的变革力量与公正和公平的清洁能源运动联系起来。她还是 Hive 气候和性别公正基金咨询委员会的联合主席、佐治亚州 NAACP 环境和气候正义委员会主席、美国环境保护署环境正义学院毕业生以及环境正义学院校友会名誉主席。她是美国能源效率经济委员会、社区运动建设者、佐治亚州保护选民教育基金、人民正义委员会/阿拉巴马州跨信仰电力与照明、Greenlink Analytics 和 Sol Nation 的董事会成员。
包容、多样性、归属感和公平战略计划 2020 年春季 纽约大学坦登工程学院 包容@坦登委员会 2019 年秋季,院长 Jelena Kovačević 召集了由教职员工、管理人员、员工和学生组成的委员会 Inclusion@Tandon,以协调坦登学院现有的多样性、公平和包容性工作,并制定总体战略计划以加强、扩大和支持这些工作。该计划是一份动态文件,将定期审查和修订,以反映社区利益相关者的意见并反映在实现下述战略目标方面取得的进展。 纽约大学坦登工程学院致力于支持和加强学生、教师和员工之间的包容性、多样性、归属感和公平 (IDBE),以服务卓越。这意味着在我们的社区内支持:
本文介绍了一种新颖的“公平性”数据集,以衡量 AI 模型对不同年龄、性别、表观肤色和环境光照条件的稳健性。我们的数据集由 3,011 名受试者组成,包含 45,000 多个视频,平均每人 15 个视频。这些视频是在美国多个州录制的,参与者是不同年龄、性别和表观肤色组的成年人。一个关键特征是每个受试者都同意参与并使用他们的肖像。此外,我们的年龄和性别注释由受试者自己提供。一组训练有素的注释者使用 Fitzpatrick 皮肤类型量表标记受试者的表观肤色 [ 6 ]。此外,还提供了在低环境光下录制的视频的注释。作为衡量跨某些属性的预测稳健性的应用,我们评估了最先进的表观年龄和性别分类方法。我们的实验从公平对待来自不同背景的人的角度对这些模型进行了彻底的分析。