详细内容或原文请订阅后点击阅览
研究发现流行人工智能模型中的政治偏见
共和党人和民主党人都认为,在讨论政治问题时,LLM的倾斜倾斜。
来源:斯坦福新闻,您不应该将所有内容都带入大型语言模型(LLM),这已经不是什么秘密了。如果您最近使用了Chatgpt,Claude或Gemini,则可能已经注意到屏幕底部的免责声明:AI“可以犯错误”,因此您可能需要检查其工作。
除了包含不准确性和幻觉外,LLM产生的答案可能具有明显的党派偏见。斯坦福大学商学院的政治经济学教授安德鲁·霍尔(Andrew Hall)在新论文中,两位合着者表明,用户压倒性地认为,一些最受欢迎的LLMS已左倾的政治倾向。然后,研究人员表明,只需进行一些小调整,就可以提示许多模型采取更中性的立场,以使更多用户信任。
新纸 Andrew Hall 斯坦福大学商学院 这些结果可能对AI模型的培训和监管可能具有很大的影响,尤其是当这些工具在调解我们获取信息和新闻的访问方面发挥了更大的作用。霍尔说:“衡量用户的看法和基于他们的调整可能是科技公司生产更广泛信任的AI模型的一种方式。” “从政策的角度来看,这为您提供了一种开始评估偏见的方法。” 尚未评估意识形态的倾向并不容易,尤其是考虑到当前的政治环境,基本事实可以进行辩论。其他研究人员已经设计了政治测验来测试LLM的偏见。但是霍尔说,这些实验并没有真正模仿人们在现实世界中如何与这些工具互动。他说:“没有实际用例,很难衡量这种倾斜的实际度量的样子。” 肖恩·韦斯特伍德 Justin Grimmer 寻找偏见和平衡 无旋转区域? Andrew Hall斯坦福大学商学院
这些结果可能对AI模型的培训和监管可能具有很大的影响,尤其是当这些工具在调解我们获取信息和新闻的访问方面发挥了更大的作用。霍尔说:“衡量用户的看法和基于他们的调整可能是科技公司生产更广泛信任的AI模型的一种方式。” “从政策的角度来看,这为您提供了一种开始评估偏见的方法。”
尚未评估意识形态的倾向并不容易,尤其是考虑到当前的政治环境,基本事实可以进行辩论。其他研究人员已经设计了政治测验来测试LLM的偏见。但是霍尔说,这些实验并没有真正模仿人们在现实世界中如何与这些工具互动。他说:“没有实际用例,很难衡量这种倾斜的实际度量的样子。” 肖恩·韦斯特伍德