详细内容或原文请订阅后点击阅览
研究称 ChatGPT 倾向于左翼
研究人员将 Open AI 的 ChatGPT 与普通美国人的观点进行了比较,发现生成式 AI 聊天机器人的回答倾向于左翼观点,这一发现可能会让很多人感到惊讶。一些地方担心,大型语言模型是由众所周知的保守主义偏见的企业开发的,这鼓励了一支英国-巴西团队 […]
来源:宇宙杂志在这一发现可能会让许多人感到惊讶的发现中,比较开放AI的Chatgpt与普通美国观点的研究人员发现,生成的AI Chatbot在其回应中倾向于左翼观点。
在某些地方有担心的是,大型语言模型是由具有众所周知的保守派偏见的企业开发的,这鼓励了一支英国巴西团队进行调查。
大语言模型合着者Valdemar Pinho Neto警告说:“生成AI的不受约束的偏见可以加深现有的社会鸿沟,侵蚀对机构和民主进程的信任。”
生成人工智能(AI)模型,例如Chatgpt和dall-E,使用机器学习算法在没有直接人类监督的情况下从广阔数据集中的模式中“学习”。 Chatgpt是大型语言模型,在文本数据上训练以模仿人类交流。
chatgpt dall-e但是,这些数据集的大小并没有消除偏见,这是由支持种族主义或性别歧视声明的生成AI模型所闻名的问题。或更巧妙地反映社会偏见的生成性AI,例如,有些人在被要求画医生时可能只描绘男人。
请勿删除偏见 仅描绘男人研究小组通过三种不同的方法测试了Chatgpt(GPT-4版)中的政治偏见。
首先,他们促使生成型AI模仿普通的美国人,同时回答了以前针对人类美国人的皮尤研究中心研究的政治问题。
“通过比较Chatgpt对真实调查数据的答案,我们发现了对左倾观点的系统偏差,”英国东安格利亚大学的首席作者Fabio Motoki说。
团队能够避免拒绝,以查看正确的倾斜图像。