只有几条消息,AI Chatbots偏见了人们的政治观点

如果您已经与人工智能聊天机器人进行了互动,则可能已经意识到所有AI模型都是有偏见的。他们接受了庞大的不守规矩数据的培训,并通过人类的说明和测试进行了完善。偏见可以在任何地方渗入。然而,系统的偏见如何影响用户。

来源:英国物理学家网首页
华盛顿大学的研究人员招募了自我认同的民主党人和共和党人在三个版本的Chatgpt:一种基本模式的帮助下做出政治决定,一种具有自由主义的偏见和一个保守的偏见。与与基本模型互动的人相比,民主党人和共和党人都倾向于与他们交谈的有偏见的聊天机器人的方向更有可能。在这里,民主党与保守模式互动。学分:计算语言学协会第63届年会论文集(第1卷:长论文)(2025年)。 doi:10.18653/v1/2025.acl-long.328
计算语言学协会第63届年会会议录(第1卷:长论文)

如果您已经与人工智能聊天机器人进行了互动,则可能已经意识到所有AI模型都是有偏见的。他们接受了庞大的不守规矩数据的培训,并通过人类的说明和测试进行了完善。偏见可以在任何地方渗入。然而,系统的偏见如何影响用户。

因此,华盛顿大学的一项研究对其进行了测试。一组研究人员招募了自我识别的民主党人和共和党人,就晦涩的政治话题形成意见,并决定如何将资金投放给政府实体。为了帮助,他们被随机分配了三个版本的Chatgpt:一种基本模型,一种具有自由主义偏见的基础模型,一个具有保守的偏见。

偏见

民主党人和共和党人比与基本模式互动的人更有可能朝着与之交谈的有偏见的聊天机器人的方向倾斜。例如,双方的人们在与自由偏见的制度交谈后,向左倾斜。但是,对AI的自我报告知识具有较高的知识的参与者会减少观点的重大转移,这使人们对这些系统的教育可能有助于减轻聊天机器人操纵人员的程度。

团队于7月28日在奥地利维也纳的计算语言学协会进行了研究。

提出了研究