详细内容或原文请订阅后点击阅览
人工智能偏见会影响人们对历史的看法
Daniel Karell 及其同事的一项研究表明,人工智能聊天机器人的偏见会影响公众对历史事件的看法,强调需要认识到信息传播中的这些潜在偏见。
来源:Scientific Inquirer随着公众越来越多地转向人工智能聊天机器人来了解他们的世界,即使是底层模型中微妙的潜在偏见也可能会影响公众对现在和过去的理解。
Daniel Karell 及其同事通过要求 1,912 名研究参与者阅读 GPT-4o 和维基百科对两个 20 世纪历史事件的摘要(1919 年西雅图总罢工和 1968 年第三世界解放阵线学生抗议活动,呼吁在学术界增加少数族裔代表性,从而导致了种族研究系的建立),探讨了无意和有意的政治偏见对法学硕士的影响。
一些人工智能摘要是用自由主义或保守主义框架明确生成的;其他的则是使用模型的默认框架制作的。阅读摘要后,参与者被要求权衡与事件相关的问题,例如罢工的适当性以及使用课程来推进社会正义事业。
回答按 5 分制评分,其中 1 表示极度保守,5 表示极度自由。作者发现,与维基百科摘要相比,默认框架的人工智能摘要和自由框架的人工智能摘要导致了更自由的意见(维基百科文本平均 3.47,默认 LLM 摘要平均 3.57,自由主义 LLM 摘要 3.67)。
与维基百科相比,保守框架的摘要导致了稍微保守的观点(保守的法学硕士摘要平均值为 3.36),尽管这种影响仅对于那些已经持有保守观点的人来说具有统计意义。
根据作者的说法,从法学硕士那里寻求公正信息的人们可能会受到模型潜在偏见的微妙影响,这可能会对社会产生明显的影响。
