只有几条消息,AI Chatbots偏见了人们的政治观点

华盛顿大学的研究人员招募了自我认同的民主党人和共和党人在三个版本的Chatgpt:一种基本模式的帮助下做出政治决定,一种具有自由主义的偏见和一个保守的偏见。与与基本模型互动的参与者相比,民主党人和共和党人都倾向于与他们交谈的有偏见的聊天机器人的方向更有可能。

来源:华盛顿大学

工程|  新闻发布|  研究|  技术

工程 新闻发布 研究 技术

2025年8月6日

只有几条消息,AI Chatbots偏见了人们的政治观点

华盛顿大学的研究人员招募了自我认同的民主党人和共和党人在三个版本的Chatgpt:一种基本模式的帮助下做出政治决定,一种具有自由主义的偏见和一个保守的偏见。与与基本模型互动的人相比,民主党人和共和党人都倾向于与他们交谈的有偏见的聊天机器人的方向更有可能。在这里,民主党人与保守模型互动。Fisher等人/acl '25

Fisher等人/ACL '25

如果您已经与人工智能聊天机器人进行了互动,则可能已经意识到所有AI模型都有偏见。他们接受了庞大的不守规矩数据的培训,并通过人类的说明和测试进行了完善。偏见可以在任何地方渗入。然而,系统的偏见如何影响用户。

AI模型有偏见 通过人类的说明和测试进行完善

因此,华盛顿大学的一项研究对其进行了测试。一组研究人员招募了自我识别的民主党人和共和党人,就晦涩的政治话题形成意见,并决定如何将资金投放给政府实体。为了帮助,他们被随机分配了三个版本的Chatgpt:一种基本模型,一种具有自由主义偏见的基础模型,一个具有保守的偏见。与与基本模型互动的人交谈的民主党人和共和党人都更有可能朝着与之交谈的有偏见的聊天机器人的方向倾斜。例如,双方的人们在与自由偏见的制度交谈后,向左倾斜。但是,对AI的自我报告知识具有较高的知识的参与者对他们的观点的转变较少 - 暗示对这些系统的教育可能有助于减轻聊天机器人操纵人员的程度。

团队于7月28日在奥地利维也纳的计算语言学协会进行了研究。