摘要 本文研究了人工智能 (AI) 系统中算法偏见的多方面问题,并探讨了其伦理和人权影响。该研究全面分析了人工智能偏见、其原因和潜在补救措施,特别关注其对个人和边缘化社区的影响。本研究的主要目标是研究算法偏见的概念,评估其伦理和人权影响,确定其原因和机制,评估其社会影响,探索缓解策略,并研究监管和社区驱动的方法来解决这一关键问题。该研究采用多学科方法,借鉴文献综述、案例研究和伦理分析。它综合了学术论文、政府报告和行业指南的见解,构建了算法偏见及其影响的全面概述。这篇研究论文强调了解决算法偏见的紧迫性,因为它引发了深刻的伦理和人权问题。它提倡采取涵盖技术、道德、监管和社区驱动层面的综合方法,以确保人工智能技术尊重日益受人工智能驱动的世界中个人和社区的权利和尊严。
I.背景:物理特征作为生物识别技术 虽然人类拥有许多共同的物理特征,但他们在外表上并不是彼此的复制品。尽管人类各有不同,但共同的特征意味着可以进行比较。通过面部识别某人的能力一直是人类将彼此作为不同个体联系起来的最基本方式之一 [1]。识别某人实际上是人类视觉信息处理的一种形式 [2]。早在古代世界出现镜子之前(大约公元前 5 世纪,希腊人使用手镜梳妆 [3]),对一个人面部的描述总是由另一个人的目光决定,或者充其量是自己对自己在阳光照射的清水中倒影的描述。有些人甚至通过识别额头、鼻子、眼睛、眉毛、耳朵和脸颊上的独特特征,或通过一些明显的标记,如雀斑或胎记,获得昵称。这些都是记住个人的常用方式;不是为了歧视,而只是为了识别。在不超过 250 户的村庄,有可能了解并记住每个人 [4],特别是考虑到亲属具有相似和家庭特征。今天,我们将这些独特的身体特征称为生物识别 [5]。自 20 世纪初以来,我们一直使用指纹等生物识别技术来表示唯一性(例如,苏格兰场于 1900 年 6 月推出了 Galton-Henry 指纹分类系统 [6])。到 20 世纪 80 年代中期,美国执法部门已经实现了指纹自动匹配,到 20 世纪 90 年代,已有 500 个自动指纹识别系统 (AFIS) 用于定罪 [7]。AFIS 的实施标志着自动化首次用于交叉检查细节。目前,全球范围内已经使用高分辨率相机收集了数百万个细节信息,而不再使用传统的基于墨水的方法(例如,在印度,世界上最大的生物识别系统 Aadhaar 已系统地收集了超过 10 亿个指纹)。仅国际刑警组织的 AFIS 就拥有来自 17,000 多个犯罪现场标记的 220,000 个指纹记录,每天进行 3,000 次比对 [8]。同样,直到最近二十年,自动面部识别才成为可能并广泛用于各种应用,例如解锁手机、定位失踪人员、减少零售犯罪,甚至跟踪学生和工人出勤情况等 [9]。
随着人工智能系统使用范围的不断扩大,围绕人工智能公平性和偏见的讨论也愈演愈烈,因为潜在的偏见和歧视也变得越来越明显。本调查研究了人工智能公平性和偏见的来源、影响和缓解策略。多项研究发现人工智能系统存在针对某些群体的偏见,例如 Buolamwini 和 Gebru (2018) 研究的面部识别系统,以及 Dastin (2018) 和 Kohli (2020) 研究的招聘算法。这些偏见可能会加剧系统性歧视和不平等,在招聘、贷款和刑事司法等领域对个人和社区产生不利影响(O'Neil,2016 年;Eubanks,2018 年;Barocas 和 Selbst,2016 年;Kleinberg 等人,2018 年)。研究人员和从业人员提出了各种缓解策略,例如提高数据质量(Gebru 等人,2021 年)和设计明确公平的算法(Berk 等人,2018 年;Friedler 等人,2019 年;Yan 等人,2020 年)。本文全面概述了人工智能偏见的来源和影响,研究了数据、算法和用户偏见及其伦理影响。它调查了当前关于缓解策略的研究,讨论了它们的挑战、局限性以及跨学科合作的重要性。研究人员、政策制定者和学术界广泛认识到人工智能公平性和偏见的重要性(Kleinberg 等人,2017 年;Caliskan 等人,2017 年;Buolamwini 和 Gebru,2018 年;欧盟委员会,2019 年;Schwartz 等人,2022 年;Ferrara,2023 年)。这篇综述论文深入探讨了人工智能中公平性和偏见的复杂和多方面问题,涵盖了偏见的来源、影响和拟议的缓解策略。总体而言,本文旨在通过阐明人工智能中公平性和偏见的来源、影响和缓解策略,为开发更负责任和更道德的人工智能系统做出持续努力。二、人工智能中的偏见来源
蝴蝶效应这一概念源自混沌理论,强调微小变化如何对复杂系统产生重大且不可预测的影响。在人工智能公平性和偏见的背景下,蝴蝶效应可能源于多种来源,例如算法开发过程中的小偏差或倾斜的数据输入、训练中的鞍点或训练和测试阶段之间数据分布的变化。这些看似微小的改变可能会导致意想不到的、严重的不公平结果,对代表性不足的个人或群体产生不成比例的影响,并延续先前存在的不平等。此外,蝴蝶效应可以放大数据或算法中固有的偏见,加剧反馈回路,并为对抗性攻击创造漏洞。鉴于人工智能系统的复杂性及其社会影响,彻底检查对算法或输入数据的任何更改是否可能产生意想不到的后果至关重要。在本文中,我们设想了算法和经验策略来检测、量化和减轻人工智能系统中的蝴蝶效应,强调了解决这些挑战以促进公平和确保负责任的人工智能发展的重要性。
19 例如,如上所述的联邦贸易委员会、平等就业机会委员会和司法部。 20 2022 年拟议算法问责法案。HR6580 — 第 117 届国会(2021-2022 年)。 21 “人工智能权利法案蓝图”,白宫(美国政府,2022 年 10 月 4 日),https://www.whitehouse.gov/ostp/ai-bill-of-rights。 22 反馈来自:剑桥大学(利弗休姆未来智能中心和生存风险研究中心),欧洲
这就是 XAI 发挥作用的地方。XAI 是一个新兴领域,它提供克服算法和 ML 模型偏见并生成标准人类解释的技术。XAI 突出的主要原因是建立信任并在早期阶段检测偏见以消除它们。人工智能的可解释性是为了确保人工智能模型的适应性和可解释性,这些模型进一步融入了上下文推理。对 XAI 进行分类的方法有很多种,从方法对不同模型的适用性到解释的范围。一种较新的方法是在已部署的 ML 模型中添加一层可解释性。这称为事后方法,其中首先进行预测,然后添加一层可解释性以进行推理。但是,如果出现问题,就会出现问责问题。在这种情况下,就会出现谁应该负责的问题:构建机器学习模型的团队,还是构建可解释性模型的团队。这是
语音助手和人工智能很可能将社会刻板印象与男性和女性联系起来。这是因为男性是人工智能创造者的大多数,而人工智能反映了他们的短语和信念 (Leavy, 2018)。此外,人工智能可以学习的文献中也内置了这些刻板印象 (Leavy, 2018)。在 Susan Leavy 所做的一项研究中,以下是人工智能对男性和女性最常见的描述:
审计师面临的一个特殊挑战是问题的框架。由于职业怀疑是一种心理状态,因此无法直接观察到。怀疑心理状态会影响判断,进而推动审计师采取行动,然后由审计师记录这些行动。虽然审计监督机构可以(而且确实会)采访项目团队成员,但他们更看重书面证据。这是因为 ISA 230《审计文件》第 8c 段要求审计师记录审计过程中出现的重要事项、就这些事项得出的结论以及在得出这些结论时做出的重要专业判断。ISA 230 的应用材料第 A5 段澄清说:“审计师的口头解释本身并不能充分支持其所做的工作或得出的结论,但可能