人工智能的进步正在刺激虚构期刊的记录请求

红十字国际委员会警告称,人工智能模型正在伪造研究论文、期刊和档案

来源:科学美国人

2025 年 12 月 8 日

阅读 2 分钟

在 Google 上添加我们添加 SciAm 在 Google 上添加我们 添加 SciAm

人工智能的进步正在刺激虚构期刊的记录请求

红十字国际委员会警告称,人工智能模型正在伪造研究论文、期刊和档案

作者:Dan Vergano,编辑:克莱尔·卡梅伦

丹·韦尔加诺 由克莱尔·卡梅伦编辑 克莱尔·卡梅伦
亚历山大·斯帕塔里/盖蒂图片社

从未听说过《国际救济杂志》或《国际人道主义数字存储库》?那是因为它们不存在。

国际救济杂志

但根据红十字国际委员会 (ICRC) 的一份新声明,这并不能阻止世界上一些最受欢迎的人工智能模型向用户发送此类记录。

声明

据红十字国际委员会称,OpenAI 的 ChatGPT、谷歌的 Gemini、微软的 Copilot 和其他模型通过生成“不正确或捏造的档案参考资料”而让学生、研究人员和档案管理员感到困惑。红十字国际委员会管理着世界上一些最常用的研究档案。 (《科学美国人》已要求这些人工智能模型的所有者发表评论。)

《科学美国人》

关于支持科学新闻

如果您喜欢这篇文章,请考虑通过订阅来支持我们屡获殊荣的新闻事业。通过购买订阅,您将有助于确保有关塑造当今世界的发现和想法的影响力故事的未来。

订阅

弗吉尼亚图书馆研究人员参与主任 Sarah Falls 表示,人工智能模型不仅会将一些用户指向错误的来源,还会给研究人员和图书馆员带来问题,他们最终会浪费时间寻找所要求的不存在的记录。她的图书馆估计,现在收到的通过电子邮件发送的参考问题中有 15% 是由 ChatGPT 生成的,其中一些包括对已发表作品和独特主要源文档的幻觉引用。 “对于我们的员工来说,证明不存在独特的记录要困难得多,”她说。

虚假引用