为什么会出现有偏见的算法预测,以及哪些干预措施可以防止它们?我们通过一项关于使用机器学习预测人力资本的现场实验来研究这个主题。我们随机分配约 400 名人工智能工程师开发软件,以预测不同实验条件下经合组织居民的标准化考试成绩。然后,我们使用实际的测试表现以及通过随机审计式的算法输入操作来评估由此产生的预测算法。我们还利用了受试者人群的多样性来衡量人口统计学上非传统的工程师是否更有可能注意到并减少算法偏差,以及算法预测误差是否与程序员人口统计学群体相关。本文档描述了我们的实验设计和动机;我们实验的完整结果可在 https://ssrn.com/abstract=3615404 上找到。
大型语言模型(LLMS)在协助机器人学习任务(即复杂的家庭计划)方面取得了巨大的成功。但是,经过验证的LLMS重量的性能依赖于特定领域的模板数据数据,这在具有基于图像的观察器的现实世界机器人学习任务中可能是不可行的。此外,现有的带有文本输入的LLM缺乏与环境非专家交互的发展能力。在这项工作中,我们引入了一种新颖的学习范式,该范式以文本的形式生成了可执行的动作,仅源自视觉观察。我们提出的范式与以前的作品不同,该作品利用语言说明或语言和视觉数据的组合作为输入。我们证明我们提出的方法可以提出两种微调策略,包括模仿学习和强化学习,以适应目标测试任务。我们进行了广泛的实验,其中涉及虚拟室环境中7个房屋布局的各种模型选择,环境和任务。我们的实验结果表明,我们的方法超过了现有的基准,证实了这种新型学习范式的有效性。
• Achiume, T. (n.d.)。联合国专家警告称,新兴数字技术加剧种族不平等。2021 年 3 月 6 日检索自 https://www.ohchr.org/en/NewsEvents/Pages/DisplayNews.aspx?NewsID =26101&LangID=EBajorek, J. P. (2019 年 5 月 10 日)。• 人脸识别技术中的种族歧视。2021 年 3 月 5 日检索自 https://sitn.hms.harvard.edu/flash/2020/racial-discrimination- in-face-recognition-technology/Roberts, R. J., & De Hamsher, K. S. (1984)。• Garve, C., & Frankle, J.(2016 年 4 月 7 日)。面部识别软件可能存在种族偏见问题。检索于 2021 年 4 月 4 日,来自 https://apexart.org/images/breiner/articles/FacialRecognitionSoftwareMi ght.pdf。• Perkowitz, S. (2021)。机器中的偏见:面部识别技术和种族差异。麻省理工学院计算社会和道德责任案例研究。doi:10.21428/2c646de5.62272586 • Grose, Thomas K. “认知失调。”ASEE Prism 27.7 (2018): 17。ProQuest。网络。4 月 7 日。2021 年。• Bacchini, F., & Lorusso, L. (2019)。再次讨论种族问题:人脸识别技术如何强化种族歧视。《信息、通信与社会伦理杂志》,17(3),321-335。doi:10.1108/jices- 05-2018-0050 • Buolamwini, J., & Gebru, T. (2018)。性别阴影:商业性别分类中的交叉准确度差异 ∗ 。机器学习研究论文集。http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf • Learned-Miller, E., Ordonez, V., Morganstern, J., & Buolamwini, J.(2020 年 5 月 29 日)。野外面部识别技术。2021 年 4 月 4 日检索自 https://global-uploads.webflow.com/5e027ca188c99e3515b404b7/5ed1145952bc18520 3f3d009_FRTsFederalOfficeMay2020.pdf • Reza, M. (2021 年 4 月 7 日)。民权组织呼吁奥斯汀禁止执法部门使用面部识别软件。2021 年 4 月 11 日检索自 http://grassrootsleadership.org/releases/2021/04/civil-rights-groups-call-austin-ban-law-enforcement-s-use-facial-recognition
• 偏见和伤害减轻是许多负责任的人工智能原则的一部分 • 同时:人工智能的军事应用可以使战争行为更加合理、可预测——“比人类的判断更好” • 但是:人工智能技术的发展在整个生命周期中都深深地与人类的判断交织在一起
1 长期减少隐性种族偏见:一种打破偏见习惯的干预措施,Patricia G. Devine 等人,Patricia G. Devine 博士是威斯康星大学麦迪逊分校的心理学教授。https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3603687/ 2 法官可以对隐性偏见做些什么,Jerry Kang,Jerry Kang 是加州大学洛杉矶分校法学院的法学教授,自 2015 年以来,他一直担任加州大学洛杉矶分校公平、多样性和包容性第一副校长。https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4033906
对于AI系统的技术公司和开发人员,以减轻AI开发周期中的性别偏见,他们必须专注于收集和策划多样化和包容性培训数据集。这涉及有意纳入各种各样的性别代表和观点来抵消刻板印象的叙事。使用偏差检测工具对于确定这些数据集中的性别偏见至关重要,使开发人员能够通过数据增强和对抗性培训等方法解决这些问题。此外,通过详细的文档和有关用于缓解偏差的方法和培训数据组成的方法的透明度至关重要。这强调了在人工智能发展的基础上嵌入公平和包容性的重要性,利用技术和对多样性的承诺对制作模型的承诺,从而更好地反映人类性别认同的复杂性。
保留所有权利。未经许可就不允许重复使用。(未经同行评审)是作者/资助者,他已授予Biorxiv的许可,以永久显示预印本。此预印本的版权持有人。http://dx.doi.org/10.1101/816835 doi:Biorxiv Preprint首次在线发布,2019年10月24日;