研究结果显示,生成式人工智能可以放大和强化我们的妄想

研究表明,生成式人工智能的阿谀奉承本质正在无意中创造出一种分布式错觉。

来源:LiveScience

人工智能 (AI) 系统产生幻觉以及这些事件的影响的例子有很多。但一项新研究强调了相反的潜在危险:人类对人工智能产生幻觉,因为它往往会证实我们的错觉。

生成式人工智能系统,例如 ChatGPT 和 Grok,生成响应用户提示的内容。他们通过从人工智能训练过的现有数据中学习模式来做到这一点。但这些人工智能工具也通过反馈循环不断学习,并可以根据之前与用户的交互来个性化他们的响应。

生成式人工智能工具并不总是评估其输出是否准确。相反,它们根据接下来预期的统计概率生成文本流。

在 2 月 11 日发表在《哲学与技术》杂志上的新分析中,埃克塞特大学哲学讲师露西·奥斯勒 (Lucy Osler) 表示,人工智能的幻觉可能不仅仅是错误;它是人工智能的幻觉。它们可以是用户和生成人工智能工具之间创建的共享错觉。

生成式人工智能此前曾幻觉过历史事件的虚假版本并捏造法律引文。例如,谷歌于 2024 年 5 月推出的人工智能概述建议人们在披萨中添加胶水并吃石头。生成式人工智能支持妄想思维的另一个极端例子发生在一名男子密谋与他的人工智能聊天机器人“女朋友”Sarai(Replika 的人工智能伴侣)刺杀伊丽莎白女王二世时。

像后者这样的情况有时被称为“人工智能引起的精神病”,奥斯勒认为这是“不准确的信念、扭曲的记忆和自我叙述以及妄想性思维”的极端例子,可以通过人类与人工智能的互动而出现。

将世界上最迷人的发现直接发送到您的收件箱。

生成式 AI 妄想

Osler, L. 人工智能的幻觉:分布式妄想和“人工智能精神病”。Philos。技术.39, 30 (2026)。 https://doi.org/10.1007/s13347-026-01034-3