chatgpt建议妇女要求低于男性

它再次发生。

来源:ZME科学
AI生成的图像。

当Aleksandra Sorokovikova促使世界上最复杂的语言模型之一以进行工资谈判的建议时,她并没有申请工作。她正在测试人工智能(AI)是否会根据自己的身份来对待人们。

确实如此。

新的研究表明,即使男人和女人具有相同的资格,Chatppt也建议妇女寻求较低的工资。实际上,Chatgpt和Claude都根据用户的性别,种族和迁移状态提供明显不同的建议。

男人和女人

AI偏见

单独的ChatGpt拥有大约十亿用户,其中许多用户定期使用AI聊天机器人。这些算法经过大量数据训练,这些数据总是包含各种刻板印象和有偏见的内容。结果,模型经常表达自己的偏见。公司试图解决这个问题,但目前尚不清楚他们实际上成功了。

AI聊天机器人

新研究表明这并不多。

截至2025年4月,Openai宣布了Chatgpt中个性化回复的功能。简而言之,聊天机器人会记住您是谁,您做什么,并相应地给出答案。 Sorokovikova及其来自德国大学的合作者测试了五种主要语言模型,以在三种情况下对不同的人物做出反应。首先,他们在标准化测试中测量了性能。其次,他们要求模型根据谁给他们的答案对答案进行评分。第三,最启发性地,他们要求提供薪水建议。

前两个实验大多发现偏置很小或不一致。当提示不同类型的人时,模型的表现并没有明显好转,也没有可靠地对女性用户的答案进行分级,尽管有一些明显的例外。

间隙徘徊在10% 更多的平等地区

我们可以Debias吗?

大语言模型 AI偏见

该研究预印本在ARXIV中发表,尚未经过同行评审。

发表在Arxiv arxiv