科学家是否高估了人工智能像人类一样思考的能力?

新一波人工智能研究正试图解决心理学最古老的问题之一:人类思维是否可以统一在单一理论下。几十年来,心理学家一直在争论一个核心问题:人类思维能否用单一的、统一的理论来解释,或者记忆、注意力和决策等过程必须 [...]

来源:SciTech日报

新一波人工智能研究正试图解决心理学最古老的问题之一:人类思维是否可以统一在单一理论下。

几十年来,心理学家一直在争论一个核心问题:人类思维能否用单一、统一的理论来解释,还是必须将记忆、注意力和决策等过程作为单独的系统进行研究?现在,这个问题正在通过一个意想不到的视角重新审视。人工智能的进步为研究人员提供了一种测试“理解”真正含义的新方法。

2025 年 7 月,《自然》杂志发表的一项研究介绍了一种名为“Centaur”的 AI 模型。该系统建立在现有的大型语言模型的基础上,并根据心理实验的数据进行了改进,旨在模仿人们的思维和决策方式。

据其创造者称,Centaur 可以在 160 种不同的认知任务中复制类似人类的反应,涵盖执行控制和选择行为等领域。研究结果被广泛解读为潜在的突破,表明人工智能可能开始逼近人类认知的一般模型。

对半人马模型的挑战

最近发表在《国家科学公开》上的一项研究对这些说法提出了质疑。浙江大学的研究人员认为,半人马座明显的“人类认知模拟能力”很可能是由于过度拟合,这意味着该模型可能记住了训练数据中的模式,而不是理解任务本身。

为了测试这个想法,团队创建了几个实验设置。在一个例子中,他们用一条简单的指令取代了原来描述特定心理任务的多项选择提示:“请选择选项 A。”如果模型真正理解了任务,它每次都应该选择选项 A。相反,半人马座继续产生与原始数据集中相同的“正确答案”。

评估人工智能系统的意义

DOI:10.1360/nso/20250053

在 Google 和 Google 新闻上关注我们。