Wikipedia的AI清理工作人员:为了信任,志愿者对“ Slop”发动战争

Wikipedia的志愿编辑们坚持不懈地防止一种新的威胁,这种威胁不会破坏或巨魔,但通过捏造的引用和微妙的不准确性而通过合理的写作悄悄地滑入。正如某些人所说的那样,这种“ AI Slop”的现代瘟疫正在引起该网站的人类监护人的紧急回应。近几个月来,已经标记了数百份潜在的AI污染文章,并标记了警告,并且形成了一个镇上的Wikiproject AI清理,以解决问题。 AI生成的错误信息的兴起不仅是一个浮躁,而且是巧妙伪装的错误的游行。普林斯顿研究人员发现,约有5%的[…]

来源:AI 2 People

Wikipedia的志愿编辑们坚持不懈地防止一种新的威胁,这种威胁不会破坏或巨魔,但通过捏造的引用和微妙的不准确性而通过合理的写作悄悄地滑入。

有人称之为“ AI Slop”的现代瘟疫正在促使该网站的人类监护人做出紧急回应。近几个月来,已经标记了数百份潜在的AI污染文章,并标记了警告,并且形成了一个镇上的Wikiproject AI清理,以解决问题。

AI生成的错误信息的兴起不仅仅是一个碎片,它是巧妙伪装的错误的游行。普林斯顿的研究人员发现,2024年8月,约有5%的新英语文章具有可疑的AI指纹 - 从奇怪的位置错误到完全虚构的条目。这足以让任何休闲读者停下来。

Wikipedia可能不会完全禁止AI使用,但是其志愿者社区的信息既安静又紧急:没有人类的监督,可靠性就不会产生。 AI政策研究员Lucie-AiméeKaffee指出:“人们真的非常信任维基百科,这是我们不应该侵蚀的。

正在做什么 - 下一步可能发生的事情

在一个新颖的皱纹中,现在被标记为AI的文章现在带有警告标签(右),例如“本文可能包含大型语言模型的输出”。消息很明确:谨慎行事。

“本文可能包含大型语言模型的输出。”

此标识工作属于Wikiproject AI清理工作,这是一支由指南,格式化提示和语言信号的志愿者的专用工作组,例如过度使用EM破折号或“此外”一词,可以从AI中脱颖而出。这些不是删除的规则,而是在更新的策略下触发更紧密审查或快速删除的危险信号。

编辑检查 粘贴检查

为什么这很重要 - 不仅仅是Wikipedia