详细内容或原文请订阅后点击阅览
研究发现,人们反映了人工智能系统的招聘偏见
在华盛顿大学的一项新研究中,528 名参与者使用模拟人工智能系统来选择求职者。研究人员模拟了白人、黑人、西班牙裔和亚裔男性简历中不同程度的种族偏见。在没有建议的情况下,参与者的选择几乎没有表现出偏见。但当提供建议时,参与者反映了人工智能的偏见。
来源:华盛顿大学新闻稿 | 研究| 技术
新闻稿 研究 技术2025 年 11 月 10 日
研究发现,人们反映了人工智能系统的招聘偏见
在华盛顿大学的一项新研究中,528 名人员与模拟法学硕士一起挑选 16 种不同工作的候选人,从计算机系统分析师到执业护士再到管家。研究人员在法学硕士推荐中模拟了不同程度的种族偏见,为同样合格的白人、黑人、西班牙裔和亚裔男性提供简历。Delmine Donson/iStock
德尔梅因·唐森/iStock一家组织利用人工智能起草职位清单。成群结队的申请人通过聊天机器人制作简历和求职信。另一个人工智能系统会筛选这些申请,并将建议传递给招聘经理。也许人工智能化身会进行筛选采访。随着人们寻求利用人工智能来简化充满压力、乏味的流程,这种情况越来越成为招聘的状态。
一家组织利用人工智能起草职位清单。成群结队的 申请人想象简历和求职信 与聊天机器人。另一个人工智能系统会筛选这些申请,并将建议传递给招聘经理。也许人工智能化身会进行筛选采访。随着人们寻求利用人工智能来简化充满压力、乏味的流程,这种情况越来越成为招聘的状态。然而研究发现,针对残疾人或某些种族和性别的招聘偏见渗透到大型语言模型或法学硕士(LLM)中,例如 ChatGPT 和 Gemini。然而,我们对法学硕士推荐的偏见如何影响人们做出招聘决定知之甚少。
在华盛顿大学的一项新研究中,528 名人员与模拟法学硕士一起挑选 16 种不同工作的候选人,从计算机系统分析师到执业护士再到管家。研究人员在法学硕士推荐中模拟了同等资格的白人、黑人、西班牙裔和亚裔男性简历中不同程度的种族偏见。
展示了其发现 凯拉·威尔逊 Wilson 等人/AIES ‘25 。