本章讨论了在研究种族偏见与其在话语中的表现之间的关系时的一些理论和方法问题。本讨论的背景是一个研究项目,该项目涉及种族主义在话语和交流中的再现,特别是在日常对话(Van Dijk,1984,1987a)、报刊新闻报道(Van Dijk,1983,1988a)和教科书(Van Dijk,1987b)的背景下。这个研究项目的基本假设是,种族偏见主要是通过白人主导群体成员之间的各种话语交流而获得、分享和合法化的。这一假设意味着,对少数民族话语的系统分析可以为种族主义的两个基本方面提供重要的见解。首先,话语分析可以告诉我们一些关于种族偏见的认知表征的内容和结构,以及它们在说话或写作过程中加工的特性。其次,这样的分析可以让我们准确地理解白人群体成员在交流互动中如何有说服力地向其他内群体成员传达这种种族偏见,以及种族偏见如何在主导群体中传播和共享。
作者注释Paul D. Windschitl(https://orcid.org/0000-0000-0002-4058-3779) Shanon Rule,Ashley Jennings,Andrew R. Smith(https://orcid.org/0000-0000-0001-5302-3343)。这项工作得到了国家科学基金会的保罗·温斯基特(Paul Windschitl)和安德鲁·史密斯(Andrew Smith)的支持。有关本文的信件应介绍给爱荷华州爱荷华大学心理与脑科学系,爱荷华州,爱荷华州52242。e-邮件:paul-windschitl@uiowa.edu;电话:319-335-2435
摘要:从社交网络中收集的个人特征的算法评估经常用于对保险费、招聘决策和就业机会、社会保障福利等领域的人员进行评级。这些算法梳理庞大的数据集(例如用户在社交网络上上传的信息),以“学习”某些特征之间的相关性和趋势,并生成“人员排名”,根据社交、声誉、身体、心理甚至行为特征系统地对个人进行评级。由于此类算法同样适用于有残疾和没有残疾的人,因此它们对残疾人尤其有害。换句话说,这些算法将残疾人的排名排在健全人以下(或不太受欢迎),导致依赖此类算法的公共和私营部门组织对残疾人产生歧视。需要采取立法行动为残疾人提供法律保护,使其免受此类算法歧视,无论这种歧视是有意还是无意的。由于此类算法广泛应用于各行各业,立法要求类似情况的残疾人和健全人获得相同的算法排名,可以极大地帮助改善残疾人的生活质量和机会。
摘要 本文研究了人工智能 (AI) 系统中算法偏见的多方面问题,并探讨了其伦理和人权影响。该研究全面分析了人工智能偏见、其原因和潜在补救措施,特别关注其对个人和边缘化社区的影响。本研究的主要目标是研究算法偏见的概念,评估其伦理和人权影响,确定其原因和机制,评估其社会影响,探索缓解策略,并研究监管和社区驱动的方法来解决这一关键问题。该研究采用多学科方法,借鉴文献综述、案例研究和伦理分析。它综合了学术论文、政府报告和行业指南的见解,构建了算法偏见及其影响的全面概述。这篇研究论文强调了解决算法偏见的紧迫性,因为它引发了深刻的伦理和人权问题。它提倡采取涵盖技术、道德、监管和社区驱动层面的综合方法,以确保人工智能技术尊重日益受人工智能驱动的世界中个人和社区的权利和尊严。
I.背景:物理特征作为生物识别技术 虽然人类拥有许多共同的物理特征,但他们在外表上并不是彼此的复制品。尽管人类各有不同,但共同的特征意味着可以进行比较。通过面部识别某人的能力一直是人类将彼此作为不同个体联系起来的最基本方式之一 [1]。识别某人实际上是人类视觉信息处理的一种形式 [2]。早在古代世界出现镜子之前(大约公元前 5 世纪,希腊人使用手镜梳妆 [3]),对一个人面部的描述总是由另一个人的目光决定,或者充其量是自己对自己在阳光照射的清水中倒影的描述。有些人甚至通过识别额头、鼻子、眼睛、眉毛、耳朵和脸颊上的独特特征,或通过一些明显的标记,如雀斑或胎记,获得昵称。这些都是记住个人的常用方式;不是为了歧视,而只是为了识别。在不超过 250 户的村庄,有可能了解并记住每个人 [4],特别是考虑到亲属具有相似和家庭特征。今天,我们将这些独特的身体特征称为生物识别 [5]。自 20 世纪初以来,我们一直使用指纹等生物识别技术来表示唯一性(例如,苏格兰场于 1900 年 6 月推出了 Galton-Henry 指纹分类系统 [6])。到 20 世纪 80 年代中期,美国执法部门已经实现了指纹自动匹配,到 20 世纪 90 年代,已有 500 个自动指纹识别系统 (AFIS) 用于定罪 [7]。AFIS 的实施标志着自动化首次用于交叉检查细节。目前,全球范围内已经使用高分辨率相机收集了数百万个细节信息,而不再使用传统的基于墨水的方法(例如,在印度,世界上最大的生物识别系统 Aadhaar 已系统地收集了超过 10 亿个指纹)。仅国际刑警组织的 AFIS 就拥有来自 17,000 多个犯罪现场标记的 220,000 个指纹记录,每天进行 3,000 次比对 [8]。同样,直到最近二十年,自动面部识别才成为可能并广泛用于各种应用,例如解锁手机、定位失踪人员、减少零售犯罪,甚至跟踪学生和工人出勤情况等 [9]。
指导遵循语言模型通常表现出不良的偏见。这些不良偏见可能会在语言模型的现实世界中加速,在这种模型的现实世界中,通过零射击的提示,使用了广泛的指示。为了解决这个问题,我们首先定义了偏置神经元,该神经元显着影响偏见的产出,并在经验上证明其存在。此外,我们提出了一种新颖而实用的缓解方法CRISPR,以消除在遵循教学遵循的环境中语言模型的偏置神经元。crispr au-fomations确定有偏见的输出,并使用可解释性方法来影响偏见输出作为偏见神经元的神经元。实验结果证明了我们方法在减轻零射击指令遵循设置下的偏见的有效性,但失去了模型的任务绩效和现有知识。实验结果揭示了我们方法的普遍性,因为它在各种指令和数据集中显示出鲁棒性。令人惊讶的是,我们的方法可以通过仅消除少数神经元(至少三个)来使语言模型的偏见。