详细内容或原文请订阅后点击阅览
只有几条消息,AI Chatbots偏见了人们的政治观点
一项研究揭示了AI Chatbots的偏见会影响用户的政治观点,知识渊博的用户不那么摇摆,强调了教育的重要性。帖子只有几条消息,偏见的AI Chatbots摇摆了人们的政治观点,首先出现在科学询问者上。
来源:Scientific Inquirer如果您已经与人工智能聊天机器人进行了互动,则可能已经意识到所有AI模型都有偏见。他们接受了庞大的不守规矩数据的培训,并通过人类的说明和测试进行了完善。偏见可以在任何地方渗入。然而,系统的偏见如何影响用户。
AI模型有偏见 通过人类的说明和测试进行完善因此,华盛顿大学的一项研究对其进行了测试。一组研究人员招募了自我识别的民主党人和共和党人,就晦涩的政治话题形成意见,并决定如何将资金投放给政府实体。为了帮助,他们被随机分配了三个版本的Chatgpt:一种基本模型,一种具有自由主义偏见的基础模型,一个具有保守的偏见。与与基本模型互动的人交谈的民主党人和共和党人都更有可能朝着与之交谈的有偏见的聊天机器人的方向倾斜。例如,双方的人们在与自由偏见的制度交谈后,向左倾斜。但是,对AI的自我报告知识具有较高的知识的参与者对他们的观点的转变较少 - 暗示对这些系统的教育可能有助于减轻聊天机器人操纵人员的程度。
团队于7月28日在奥地利维也纳的计算语言学协会进行了研究。
提出了研究“我们知道媒体或个人互动中的偏见可能会影响人们,”西大学统计学博士生和保罗·G·艾伦计算机科学与工程学院的主要作者吉利安·费舍尔(Jillian Fisher)说。 “而且我们已经看到了许多研究表明AI模型是有偏见的。但是,没有很多研究表明它如何影响人们使用它们的人。我们发现,只有几次互动和不管最初的党派化,人们都更有可能反映该模型的偏见。”
Jillian Fisher 1900年的莱西法案 七度量表 研究10,000用户 Katharina Reinecke Jillian Fisher 1900年的莱西法案 七度量表 研究10,000用户Katharina Reinecke