对于错误信息研究人员来说,人工智能是一种祸害,也是一种强大的新工具

生成式人工智能的激增正在颠覆刚刚站稳脚跟的领域

来源:Science Magazine

1.0x

2023 年 9 月,调查俄罗斯虚假信息活动的研究人员注意到他们一直跟踪的假新闻网站发生了突然变化。该媒体 DCWeekly.org 通常会抄袭福克斯新闻等来源的整篇文章,只更改记者的姓名,除此之外几乎没有其他改动。真实的故事旨在为俄罗斯提供掩护,偶尔发布精心制作的虚假故事,例如有关乌克兰总统弗拉基米尔·泽伦斯基的热门文章,这种技术被称为叙事洗钱。 “他们正在建造一片森林,这样他们就可以在那里隐藏一棵特定的树,”苏黎世大学政治传播学者摩根·瓦克说。

但一夜之间,瓦克和他的同事意识到他们无法再弄清楚该网站从哪里获取每日新闻报道。 “你看到了这种完全不同的写作风格,而且有更多的文章,”他说。研究人员怀疑这次行动已经转向使用生成式人工智能——他们在一些故事中发现人工智能提示的残留物后,这一怀疑得到了证实,比如其中一篇文章说:“请注意:文章的语气批评美国支持乌克兰战争的立场,并在讨论美国政府、北约或美国政客时采取愤世嫉俗的语气。”

对于 Wack 的团队来说,这是一个难得的机会来研究人工智能如何塑造错误信息的世界。研究人员发现,该网站的输出量大幅增加。瓦克说,在实验中,人们没有发现人工智能生成的宣传比早期的人类编写的故事更有说服力,但转向人工智能仍然是宣传人员的胜利。 “他们没有失去任何可信度,而且能够推出更多内容。”人工智能本质上让他们能够建造一个更大、更好的森林来隐藏他们的树木。

根据一些我们可以直接归因于人工智能的结果指标,我们真的看到情况在恶化吗?我不知道。

  • 乔恩·鲁森贝克