保留所有权利。未经许可就不允许重复使用。(未经同行评审)是作者/资助者,他已授予Biorxiv的许可,以永久显示预印本。此预印本的版权持有人。http://dx.doi.org/10.1101/816835 doi:Biorxiv Preprint首次在线发布,2019年10月24日;
摘要:人工智能(AI)正在改变EM策略,医疗保健和刑事司法等关键行业,但它也引入了重要的道德和法律挑战,尤其是在性别偏见方面。AI系统经常接受有偏见的历史数据培训,可以使现有的性别不平等永久化甚至扩大。本文探讨了人工智能中性别偏见的法律意义,重点介绍了对反歧视法,透明度问题的挑战以及对监管监督的需求。AI中的性别偏见,从而导致歧视性结果。这种偏见不是技术缺陷,而是使用歧视模式的数据和算法的结果。主要是男性的AI开发人员之间缺乏多样性,通过未解决妇女和边缘化群体的观点和需求来加剧这个问题。
随着人工智能系统使用范围的不断扩大,围绕人工智能公平性和偏见的讨论也愈演愈烈,因为潜在的偏见和歧视也变得越来越明显。本调查研究了人工智能公平性和偏见的来源、影响和缓解策略。多项研究发现人工智能系统存在针对某些群体的偏见,例如 Buolamwini 和 Gebru (2018) 研究的面部识别系统,以及 Dastin (2018) 和 Kohli (2020) 研究的招聘算法。这些偏见可能会加剧系统性歧视和不平等,在招聘、贷款和刑事司法等领域对个人和社区产生不利影响(O'Neil,2016 年;Eubanks,2018 年;Barocas 和 Selbst,2016 年;Kleinberg 等人,2018 年)。研究人员和从业人员提出了各种缓解策略,例如提高数据质量(Gebru 等人,2021 年)和设计明确公平的算法(Berk 等人,2018 年;Friedler 等人,2019 年;Yan 等人,2020 年)。本文全面概述了人工智能偏见的来源和影响,研究了数据、算法和用户偏见及其伦理影响。它调查了当前关于缓解策略的研究,讨论了它们的挑战、局限性以及跨学科合作的重要性。研究人员、政策制定者和学术界广泛认识到人工智能公平性和偏见的重要性(Kleinberg 等人,2017 年;Caliskan 等人,2017 年;Buolamwini 和 Gebru,2018 年;欧盟委员会,2019 年;Schwartz 等人,2022 年;Ferrara,2023 年)。这篇综述论文深入探讨了人工智能中公平性和偏见的复杂和多方面问题,涵盖了偏见的来源、影响和拟议的缓解策略。总体而言,本文旨在通过阐明人工智能中公平性和偏见的来源、影响和缓解策略,为开发更负责任和更道德的人工智能系统做出持续努力。二、人工智能中的偏见来源
蝴蝶效应这一概念源自混沌理论,强调微小变化如何对复杂系统产生重大且不可预测的影响。在人工智能公平性和偏见的背景下,蝴蝶效应可能源于多种来源,例如算法开发过程中的小偏差或倾斜的数据输入、训练中的鞍点或训练和测试阶段之间数据分布的变化。这些看似微小的改变可能会导致意想不到的、严重的不公平结果,对代表性不足的个人或群体产生不成比例的影响,并延续先前存在的不平等。此外,蝴蝶效应可以放大数据或算法中固有的偏见,加剧反馈回路,并为对抗性攻击创造漏洞。鉴于人工智能系统的复杂性及其社会影响,彻底检查对算法或输入数据的任何更改是否可能产生意想不到的后果至关重要。在本文中,我们设想了算法和经验策略来检测、量化和减轻人工智能系统中的蝴蝶效应,强调了解决这些挑战以促进公平和确保负责任的人工智能发展的重要性。
19 例如,如上所述的联邦贸易委员会、平等就业机会委员会和司法部。 20 2022 年拟议算法问责法案。HR6580 — 第 117 届国会(2021-2022 年)。 21 “人工智能权利法案蓝图”,白宫(美国政府,2022 年 10 月 4 日),https://www.whitehouse.gov/ostp/ai-bill-of-rights。 22 反馈来自:剑桥大学(利弗休姆未来智能中心和生存风险研究中心),欧洲
这就是 XAI 发挥作用的地方。XAI 是一个新兴领域,它提供克服算法和 ML 模型偏见并生成标准人类解释的技术。XAI 突出的主要原因是建立信任并在早期阶段检测偏见以消除它们。人工智能的可解释性是为了确保人工智能模型的适应性和可解释性,这些模型进一步融入了上下文推理。对 XAI 进行分类的方法有很多种,从方法对不同模型的适用性到解释的范围。一种较新的方法是在已部署的 ML 模型中添加一层可解释性。这称为事后方法,其中首先进行预测,然后添加一层可解释性以进行推理。但是,如果出现问题,就会出现问责问题。在这种情况下,就会出现谁应该负责的问题:构建机器学习模型的团队,还是构建可解释性模型的团队。这是
语音助手和人工智能很可能将社会刻板印象与男性和女性联系起来。这是因为男性是人工智能创造者的大多数,而人工智能反映了他们的短语和信念 (Leavy, 2018)。此外,人工智能可以学习的文献中也内置了这些刻板印象 (Leavy, 2018)。在 Susan Leavy 所做的一项研究中,以下是人工智能对男性和女性最常见的描述: