详细内容或原文请订阅后点击阅览
人工智能工具在根据种族和性别对求职者姓名进行排名时表现出偏见
华盛顿大学的研究人员发现,三种最先进的大型语言模型在对简历进行排名时存在明显的种族、性别和交叉偏见。这些模型 85% 的时间偏向与白人相关的名字,只有 11% 的时间偏向与女性相关的名字,并且从未偏向与黑人男性相关的名字而不是与白人男性相关的名字。
来源:华盛顿大学新闻发布| 研究| 技术
新闻发布 研究 技术2024年10月31日
AI工具根据感知的种族和性别
华盛顿大学研究发现,在三种最先进的大型语言模型或LLMS,排名的简历中,种族,性别和交叉偏见。
Alejandro Escamilla/unsplash招聘的未来似乎是自动化的。现在,申请人可以使用人工智能机器人来申请成千上万的工作清单。现在,该流程中长期自动化部分的公司正在部署最新的AI大型语言模型来编写职位描述,通过简历和屏幕申请人进行筛选。现在,估计有99%的《财富》 500强公司在招聘过程中使用了某种形式的自动化。
使用人工智能机器人应用于成千上万的工作清单 部署最新的AI大语言模型 在其招聘过程中使用某种形式的自动化这种自动化可以提高效率,有些人声称它可以使招聘过程降低歧视性。但是华盛顿大学的新研究发现了三种最先进的大型语言模型或LLMS的较高履历,发现了巨大的种族,性别和交叉偏见。研究人员在550多个现实世界的履历中与白人和黑人男女相关的名字都不同,发现LLMS偏爱与白人相关的名字85%的时间,只有11%的时间与女性相关的名字,并且从不喜欢黑人男性相关的名字而不是白人男性相关的名字。
团队于10月22日在圣何塞的AAAI/ACM人工智能,伦理和社会会议上介绍了研究。
提出了研究 Kyra Wilson 纽约市法律 chatgpt展出种族 残疾偏见UW团队想研究开源LLM并大规模进行。他们还想调查种族和性别之间的交叉性。
aylin caliskan 有关更多信息,请与Wilson联系 。