新研究发现维基百科文章中存在政治偏见
无
来源:曼哈顿政策研究所信息由于 ChatGPT 等大型语言模型经常使用维基百科内容进行训练,这种偏见有蔓延的风险
由于 ChatGPT 等大型语言模型经常使用维基百科内容进行训练,这种偏见有蔓延的风险纽约 — 维基百科在过去二十年中发展成为全球数百万用户不可或缺的信息资源,每月访问量超过 40 亿次。但它的重要性不仅限于直接的人类读者,因为维基百科内容也经常用于训练 ChatGPT 等大型语言模型 (LLM)。鉴于维基百科的巨大影响力,其内容的准确性和中立性至关重要。维基百科内容中存在的任何偏见都有可能被吸收到当代人工智能系统的基础参数中,并可能进一步延续和放大这些偏见。
纽约,纽约州在曼哈顿研究所的一份新报告中,David Rozado 详细介绍了他对维基百科内容中的政治偏见的开创性分析的结果。在他的评估中,Rozado 通过计算评估了维基百科条目中政治色彩浓厚的术语(即最近几任美国总统、美国国会议员、美国最高法院法官或西方国家总理的名字)的情绪和情感基调。研究结果表明,与左翼相比,维基百科条目更有可能对代表右翼政治倾向的术语产生负面情绪。此外,与中左翼相比,暗示中右翼政治立场的术语更常与愤怒和厌恶的情绪相关。相反,与右翼相比,与左翼意识形态相关的术语更常与喜悦的情绪相关。
报告 David Rozado单击此处查看报告。
单击此处查看报告。 捐赠