在过去的15年中,为了追求机器学习(ML)的公平性[3]提出了数百种缓解方法。但是,公平性不能简化为一个概念。This diversity stems from the impossibility of reducing fairness to a single concept, and, given a selected fairness definition, from different possible locations of interventions in the model pipeline (pre/in/post-processing) and algorithmic strategies [ 6 ].但是,这种扩散尚不清楚何时,何地和如何适用于实践中。我们建议BIMI板作为任何偏见缓解方法的设计选择的便携式,统一指南。这些数据集[9]和模型卡的数据表[12]。数据表和模型卡关注资源中存在的偏差。bimi板专注于偏置缓解方法的能力来处理某些类型的偏见。图1提供了BIMI纸的示例。表使用标签,可快速概述通常以公平性做出的主要设计选择。每个部分都充满了描述,提供了其他详细信息。板的结构如下:
$ k65)。 (46/(+ $ 0+!。(&0&8&)“+1/(6”&#6/86:+1/b&)/+1/'“#$%&'$(!。(&0&8&)“+ 1/(6“”&#6/86+ o!1p+ a)'+ B.)4)(&8)“ G+(。/'0 $ .46B+ s)。 &$ - '+ '68($。':+ 6/a)/86b+ b68&'&$/u 4)i&/#+ 5。 $ 86'6 '+)/B+)-($ 4) (&/#+8 $ 45 "6t+()' i'j+k6'5 & (6+& ('+5 $ (6/(&)"+F6/60 & (':+(A6+B65 "$ G46/(+$ 0+ 4) 8A &/6+"6) ./&/#+)"#$. & (A4 '+a)'+)&'6b+'&#/&0&0&8)/(+8 $/86 ./'+6#)。 b&#+f&)'+)/b+b&'8。&/)(&$/j+@a&'+5)56。+b6“ s6'+&/($+($ 4-”(a6+4-“(&0)86(6b+$。&#&#&/'+$ 0+$ 0+$ 0+$ f&+f&+&/+!1+&b)++a+a+a+a+a+a+a+'; h+(a6'6+。)4)/&06'(+&/+6)“ uh $。“ b+)55”&8)(&$/'+)/b+(a6&。+&45“&8)&8)(&$/'+0 $。+'$ 8&6()”+6v-&(gj+wg+)/)“ gl&/#+8)'gl&/#+8) &/'x'-8a+)'+a6)a&#a”&#a('+(a6+b6(a6+b6((a6.4 $ .6:+(a6+ 5)56。+ 5。$ 5 $'6'6'+)8(&$/)f“ 6+'(。)(6#&6'+ 0 $。+ 4&(&#)(&/#+ f&)':+&/8“ -b&/#+ b&s6。'6+ b)()+8 $“” 68(&$/:+)“#$。&(a4&8+) - b&/#:+)/b+(a6+6'()'6+)。 $ - /b+! 1:+(a&'+ 5)56。+ 645a)'&l6'+(a6+ 8。&(8)“+/66b+ 0 $。+ 6(a&8)(a&8)”+ 8 $/'&b6。)(&$/':+&/8“ - '&s&(g:+)/b+(。/'5).6/8G+&/+(A6+B6S6“ $ 546/(+)/B+B65” $ G46/(+$ 0+4)8a&/6+“ 6)./&&&&&&&&&&&&&&&&&&&&&#&#” $'(6。+)+4 $ .6+6v-&()f“ 6+!1+”)/b'8)56+(a)(+'6.s6'+)“”+464f6。“ gj + +!“#$%&'() +!“#$%$&$'() *+#,(($ - ,+&,。)/'&0 $+,)1,'“+$+ - 。)< /div>2 $'3.)4 $ 3&“ $ 5 $+'#$ 6+)4'#')2 $'3.)(-6“ $#05 $&)2 $'> 6(&$ 6+。)a,“ a6($&&&&&$&$&$&$+。)8C:$#<)++)!*。)!*)80 $&3。)d“'so,+&6:+#'f $($#<。)'+=)?#
许多人认为,算法未能辜负其Prom-ISE来反映用户偏好并改善社会福利1 - 4。概率不是技术。现代算法是精致且准确的。对无代表性样本的培训算法会导致该问题,但即使对算法进行了培训,也会发生故障。也不是由利润动机引起的问题。营利性公司设计算法是为用户付出代价的,但即使是非营利组织和政府,也没有缺少5个。所有算法均基于用户正在做的心理模型。该模型的基本约束是可预测算法的可测量变量的狭窄。我们建议算法无法反映用户偏好并增强其福利,因为算法依赖于显示的偏好来做出预测。设计人员以错误的假设构建算法,即用户行为(显示的偏好)告诉我们(1)用户在理性上偏爱的内容(规范性偏好)和(2)什么将增强用户福利。依靠这个95年历史的经济模型,而不是用户表现出有限合理性的更现实的假设,而是导致设计师对用户行为进行培训算法。揭示的偏好可以识别未知的偏好,但是揭示的偏好是对用户的规范偏好和价值的衡量的不完整(有时会引起误导)6。具有讽刺意味的是,现代算法是建立在对揭示偏好中的过时且无可辩驳的承诺之上的。
仍然缺乏对深网(和其他过度参数模型)令人惊讶的发生能力的彻底理论理解。在这里,我们证明了模拟性偏差是在过度参数化机器学习中不可忽视的主要现象。除了解释简单性偏见的结果外,我们还研究了它的来源:遵循具体的严格示例,我们认为(i)模拟偏见可以解释在过度参数化学习模型(例如神经网络)中的概括; (ii)正如我们的示例所示,简单性偏差和出色的概括是与优化器无关的,尽管优化器会影响培训,但它并不是简单性偏见的动力; (iii)在训练模型中的模拟偏差和随后的后代是普遍的,并且源于一个微妙的事实,即统一的随机构造的先验不是统一的统一性; (iv)在神经网络模型中,宽(和浅)网络中的偏见机器与深(和狭窄)网络中的偏置机制不同。
摘要:近年来,机器学习算法已迅速升至几个领域的决策过程的顶部。然而,这些算法很容易确认已经存在数据的偏见,从而导致偏见和不公平的选择。在这项工作中,我们研究了机器学习的偏见,并提供了促进公平和道德算法设计的策略。然后,本文强调了公平意识到的机器学习算法的价值,该算法的目的是通过在培训和评估程序中包含公平性约束来减少偏见。重新持续,对抗性培训和重新采样是可以用来克服偏见的一些策略。可以通过促进正义,透明度和包容性来发展更好地服务社会和尊重道德理想的机器学习系统。本文为研究人员,从业者和决策者提供了基础,以通过一致的努力来转发道德和公平的机器学习原因。
模型偏差。人寿保险部门内的后果是深远的,影响了围绕政策定价,承保和风险评估的关键决策,以及潜在的歧视性影响的资格。本节段深入研究模型偏差的理论基础,对其各种表现进行了分类,并通过特定于部门的场景说明了其发生。通过剖析偏见无意间编码为预测模型的实例,我们旨在阐明这种偏见使社会差异永久存在的途径,从而挑战精算专业,以严格评估和完善其分析方法。
相关文献和行业出版社表明,基于人工智能(AI)的决策系统可能会偏向性别,这反过来影响个人和社会。信息系统(IS)领域已经认识到基于AI的结果及其影响的丰富贡献;但是,缺乏关于基于AI的决策系统中性别偏见的管理及其不利影响的研究。因此,基于AI的决策系统中对性别偏见的关注正在引起关注。,需要更好地了解促成因素和有效方法来减轻基于AI的决策系统中的性别偏见。因此,这项研究通过对现有文献进行系统文献综述(SLR),并为基于AI的决策系统中的性别偏见的管理提供了系统文献综述(SLR)。SLR结果表明,基于AI的决策系统中对性别偏见的研究尚未确定,强调了未来的巨大潜力是该领域的研究,正如本文所阐明的那样。基于这篇综述,我们将基于AI的决策系统中的性别偏见概念化为社会技术问题,并提出了一个理论框架,该框架提供了技术,组织和社会方法以及四个命题以及可能减轻偏见效应的四个主张。最后,本文考虑了关于组织背景下基于AI的决策系统中性别偏见的未来研究。
摘要:人工智能 (AI) 和机器学习 (ML) 正在通过增强个性化学习和学术支持来改变高等教育,但它们也带来了重大的道德挑战,特别是在固有偏见方面。这篇评论批判性地审视了人工智能在高等教育中的整合,强调了其创新教育范式的潜力和解决道德影响以避免延续现有不平等的必要性。研究人员采用了一种方法论,以案例研究和文献为主要数据收集方法,重点研究通过技术解决方案、多样化数据集和严格遵守道德准则来减轻偏见的策略。他们的研究结果表明,在高等教育中建立道德的人工智能环境势在必行,需要政策监管、治理和教育方面的全面努力。该研究强调了跨学科合作在解决人工智能偏见复杂性方面的重要性,强调了政策、监管、治理和教育在创建道德人工智能框架方面发挥的关键作用。最后,该论文提倡持续保持警惕并采取积极主动的策略,以确保人工智能对教育环境做出积极贡献,并强调需要建立强有力的框架,将道德考虑融入人工智能系统的整个生命周期,以确保其负责任和公平地使用。
对于开发人员来说,这是一种更实用的方法,可以更全面地了解其 AI 中的偏见风险。它还可以更轻松地识别潜在偏见。通过检查输出来检测偏见很难,而且通常不合适或无用。通过检查其潜在来源来检测偏见(就像该工具所做的那样)既更容易也更有用。可以预先管理或消除偏见,从而产生更好、更合乎道德的 AI,并节省开发人员的时间。
• Achiume, T. (n.d.)。联合国专家警告称,新兴数字技术加剧种族不平等。2021 年 3 月 6 日检索自 https://www.ohchr.org/en/NewsEvents/Pages/DisplayNews.aspx?NewsID =26101&LangID=EBajorek, J. P. (2019 年 5 月 10 日)。• 人脸识别技术中的种族歧视。2021 年 3 月 5 日检索自 https://sitn.hms.harvard.edu/flash/2020/racial-discrimination- in-face-recognition-technology/Roberts, R. J., & De Hamsher, K. S. (1984)。• Garve, C., & Frankle, J.(2016 年 4 月 7 日)。面部识别软件可能存在种族偏见问题。检索于 2021 年 4 月 4 日,来自 https://apexart.org/images/breiner/articles/FacialRecognitionSoftwareMi ght.pdf。• Perkowitz, S. (2021)。机器中的偏见:面部识别技术和种族差异。麻省理工学院计算社会和道德责任案例研究。doi:10.21428/2c646de5.62272586 • Grose, Thomas K. “认知失调。”ASEE Prism 27.7 (2018): 17。ProQuest。网络。4 月 7 日。2021 年。• Bacchini, F., & Lorusso, L. (2019)。再次讨论种族问题:人脸识别技术如何强化种族歧视。《信息、通信与社会伦理杂志》,17(3),321-335。doi:10.1108/jices- 05-2018-0050 • Buolamwini, J., & Gebru, T. (2018)。性别阴影:商业性别分类中的交叉准确度差异 ∗ 。机器学习研究论文集。http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf • Learned-Miller, E., Ordonez, V., Morganstern, J., & Buolamwini, J.(2020 年 5 月 29 日)。野外面部识别技术。2021 年 4 月 4 日检索自 https://global-uploads.webflow.com/5e027ca188c99e3515b404b7/5ed1145952bc18520 3f3d009_FRTsFederalOfficeMay2020.pdf • Reza, M. (2021 年 4 月 7 日)。民权组织呼吁奥斯汀禁止执法部门使用面部识别软件。2021 年 4 月 11 日检索自 http://grassrootsleadership.org/releases/2021/04/civil-rights-groups-call-austin-ban-law-enforcement-s-use-facial-recognition