如今,人工智能越来越多地被用于许多高风险决策应用中,其中公平性是一个重要问题。目前,已经有许多人工智能存在偏见并做出可疑和不公平决策的例子。人工智能研究界提出了许多方法来衡量和减轻不必要的偏见,但其中很少有方法涉及人类决策者的意见。我们认为,由于不同的公平标准有时无法同时满足,并且实现公平通常需要牺牲模型准确性等其他目标,因此,关键是要了解并遵守人类决策者关于如何在这些目标之间进行权衡的偏好。在本文中,我们提出了一个框架和一些示例方法来引出这些偏好并根据这些偏好优化人工智能模型。
决策系统的自动化导致了人工智能 (AI) 使用中的隐藏偏见。因此,解释这些决策和确定责任已成为一项挑战。因此,出现了一个新的算法公平性研究领域。在这个领域,检测偏见并减轻偏见对于确保公平和无歧视的决策至关重要。本文的贡献包括:(1) 对偏见进行分类,以及偏见与人工智能模型开发的不同阶段(包括数据生成阶段)的关系;(2) 修订公平性指标以审核数据和用它们训练的人工智能模型(在关注公平性时考虑不可知模型);(3) 对减轻人工智能模型开发不同阶段(预处理、训练和后处理)偏见的程序进行新的分类,并增加有助于生成更公平模型的横向行动。
4 有关平等就业机会种族/族裔类别、性别、LGBTQ+、退伍军人身份和残疾状况的信息基于自我认同和自我披露。除非另有说明,有关平等就业机会种族/族裔的信息以各自美国人口中自我认同种族/族裔的百分比表示,有关性别的信息以各自全球人口中自我认同性别的百分比表示;有关 LGBTQ+、退伍军人身份和残疾状况的信息以各自美国总人口中自我认同的百分比表示。
3. 建议理事会批准多年期行动计划。背景旺市为拥有多元化社区而感到自豪,并重视他们为旺市的文化、经济和社会成就所做的重大贡献。这座城市正在不断发展和多元化。基于 2016 年人口普查数据的人口统计数据显示,该市及其公民都是多元化的。该市继续建立联系并寻求机会,以表明其致力于培育一个包容的社区,并真正欣赏丰富它的多样性。里程碑时刻 • 2018 年,旺市议会批准了联合国的宣言,将 2015 年至 2024 年定为非洲裔人国际十年。 • 2019 年 3 月,旺市成为加拿大第一个批准《性别多样性领导协议》的城市。 • 2019 年 6 月,市议会批准并通过了《旺市包容性宪章》,以支持《约克区包容性宪章》,这是一项旨在为所有人创造公平和平等环境的社区倡议。 • 2019 年 10 月,根据市长 Maurizio Bevilacqua 的一项议员决议,成立了多元化与包容性工作组。 • 市政府于 2019 年启动了年度无障碍冠军奖。 • 2020 年,Ahmaud Arbery、George Floyd 和 Brianna Taylor 在美国被谋杀,以及 Regis Korchinski-Paquet 在多伦多被杀害,引起了人们对系统性和普遍性的反黑人种族主义的关注,并引发了全球性的示威和抗议活动(包括在旺市举行的示威活动)。 • 市长 Maurizio Bevilacqua 于 2020 年 6 月 3 日和 2020 年 6 月 16 日发表声明,声援反对种族不公。 • COVID-19 的兴起导致反亚裔仇恨和暴力事件增加。 • 2020 年 7 月,市议会一致通过了第 4 区市议员 Sandra Yeung Racco 的议员决议,该决议加强了市议会“一致强烈谴责针对各种亚裔人士的仇恨、歧视和暴力行为”的努力。 • 2020 年夏天,市政府设立了多元化和包容性官员职位,以发挥领导作用,促进多元化、包容性和可及性。 • 2020 年 7 月,市长 Bevilacqua 和市议会成员通过了一项议员决议,宣布 7 月 18 日为旺市纳尔逊·曼德拉国际日。
在报告的前半部分,我们概述了在阿拉巴马州、加利福尼亚州、爱达荷州、马里兰州和弗吉尼亚州的黑人和西班牙裔/拉丁裔社区进行的当地民族志研究的结果。自 1 月以来,当地研究团队一直在评估社区基础设施;听取社区成员、公共卫生官员和政府领导人的意见;并协调参与活动,以了解如何最好地提高人们对 COVID-19 疫苗的认识、可及性和可接受性。在本报告的后半部分,我们介绍了当地研究的政策和实践意义。COVID-19 疫苗接种公平工作组(由社区倡导者、公共卫生专家和社会科学家组成的咨询机构)制定了这些建议,并征求了当地团队的反馈意见。
尽管我们对机器学习中的公平性的理解已经大大发展,但我们对扩展学习(RL)公平性的理解仍然很新生。大多数诉讼都在一声分类任务中公平。但是,现实世界中支持RL的系统(例如,自动驾驶汽车)的复杂性要复杂得多,因为代理在长时间内在动态环境中运行。为了确保对这些系统的负责任开发和部署,我们必须更好地了解RL中的公平性。在此过程中,我们调查了文献,以提供RL中公平的前沿的最新快照。我们首先要重新查看RL中可能出现公平考虑的地方,然后讨论到目前为止提出的RL公平性的各种定义。我们继续强调了用于在单一和多代理RL系统中实施公平性的方法研究人员,然后展示了已研究了公平RL的不同应用域。最后,我们批判性地研究了文献中的差距,例如在RLHF背景下的公平性,在将来的工作中仍然需要解决这些差距,以便在现实世界中真正实现公平RL。
在IE&D上非常有效的公司的计划范围是业务领域数量的两倍以上是无效的公司。此外,与不对这些领导者负责的公司相比,持有供应链领导者对实现IE&D目标的负责,在其供应链部门的进度非常有效,可将其评为供应链部门的可能性高3倍(比36%,而12%)。最后,IE&D培训虽然很重要,但并不是针对IE&D挑战的唯一解决方案。提供IE&D培训但没有其他IE&D计划的公司比提供培训和其他IE&D计划的公司的评价是IE&D的3.5倍(21%的公司比6%)。
如今,人工智能越来越多地被用于许多高风险决策应用中,其中公平性是一个重要问题。目前,已经有许多人工智能存在偏见并做出可疑和不公平决策的例子。人工智能研究界提出了许多方法来衡量和减轻不必要的偏见,但其中很少有方法涉及人类决策者的意见。我们认为,由于不同的公平标准有时无法同时满足,并且实现公平通常需要牺牲模型准确性等其他目标,因此,关键是要了解并遵守人类决策者关于如何在这些目标之间进行权衡的偏好。在本文中,我们提出了一个框架和一些示例方法来引出这些偏好并根据这些偏好优化人工智能模型。
1. 人工智能高级专家组 (2019)。可信人工智能的道德准则。布鲁塞尔:欧盟委员会。2. 欧洲银行管理局 (2020)。欧洲银行管理局大数据和人工智能报告。巴黎。3. Joost van der Burgt (2019)。金融领域使用人工智能的一般原则。阿姆斯特丹:荷兰银行。4. ACPR (2018)。人工智能:金融行业面临的挑战。巴黎:法国审慎监管局。5. FSB (2017)。金融服务中的人工智能和机器学习:市场发展和金融稳定影响。巴塞尔:金融稳定委员会。6. Tractica (2019)。报告:人工智能市场预测。网址:https://tractica.omdia.com/research/artificial-intelligence-market-forecasts/ 7. DnB 和 AFM (2019)。保险业的人工智能:一项探索性研究。8. WEF(2018 年)。金融服务的新物理学:了解人工智能如何改变金融生态系统。世界经济论坛。9. Mutanen, T.、Nousiainen, S. 和 Ahola, J.(2010 年)。客户流失预测 - 零售银行案例研究。10. Feloni, R.(2017 年)。消费品巨头联合利华一直在使用智力游戏和人工智能招聘员工
在定义和选择人群时会出现代表性偏差 - 例如,当数据集中缺乏地理或社会多样性时。在数据收集阶段可能会出现某些群体代表性不足的情况,此时采样方法只能覆盖到一小部分人群。例如,两个地点的数据收集方式可能不同 - 例如,银行历来向居住在相对富裕地区的家庭提供信贷。如果受保护的属性(例如种族)随位置而变化,则会引起偏差。欧盟委员会考虑的训练数据集的关键要求之一是严格解决所需的代表性 - 而不是历史性。