“不是如何构建数字思维”:推理失败如何阻碍人工智能模型实现人类水平的智能

一项新研究的作者认为,现有的法学硕士架构可能不支持支撑人类水平人工智能所需的解决问题的能力。

来源:LiveScience

新研究表明,当今最流行的人工智能 (AI) 工具的架构限制可能会限制它们的智能程度。

2 月 5 日在预印本 arXiv 服务器上发表的一项研究认为,现代大型语言模型 (LLM) 本质上容易出现问题解决逻辑崩溃的情况,即所谓的“推理失败”。

当法学硕士失去可靠解决任务所需的关键信息时,推理失败就会发生,从而导致看似简单的问题得到错误的答案。这篇论文是对现有研究的回顾,专门研究了 Transformer 模型,这是一种支撑流行人工智能聊天机器人(包括 ChatGPT、Claude 和 Google Gemini)的神经网络架构。

根据法学硕士在人类最后考试等评估中的表现,一些科学家表示,潜在的神经网络架构有一天可以产生一种能够达到人类认知水平的模型。虽然 Transformer 架构使法学硕士在语言生成等任务上非常有能力,但研究人员认为,它也抑制了实现真正的人类推理所需的可靠逻辑过程。

研究人员在研究中表示:“法学硕士表现出了卓越的推理能力,在广泛的任务中取得了令人印象深刻的成果。” “尽管取得了这些进步,但严重的推理失败仍然存在,甚至在看似简单的场景中也会发生……这种失败归因于无法进行整体规划和深入思考。”

法学硕士的局限性

法学硕士接受过大量文本数据的训练,并通过逐字预测合理的答案来生成对用户提示的响应。他们根据从训练数据中学到的统计模式,将称为“标记”的文本单元串在一起来实现这一点。

将世界上最迷人的发现直接发送到您的收件箱。

现有人工智能基准的差距

AGI 的新架构?