详细内容或原文请订阅后点击阅览
Agentic AI 和下一次智能爆炸 |科学
几十年来,人工智能 (AI) 的“奇点”一直被认为是一个单一的、巨大的思维,将自身引导至神一般的智能,将所有认知整合到一个冰冷的硅点中。但这一愿景几乎可以肯定其最基本的假设是错误的。如果人工智能的发展遵循之前重大进化转变或“智能爆炸”的道路,那么我们当前计算智能的阶跃变化将是多元化的、社会性的,并与其祖先(我们!)深深地纠缠在一起。
来源:Science Magazine就其本质而言,智力是高维且相关的,而不是一个必须明确小于或大于人类规模的单一数量。事实上,鉴于我们的智力已经是一种集体财产,而不是个人财产,我们甚至不清楚“人类规模”的含义。代理人工智能的最新进展再次向我们表明,智能始终存在
,它来自
变革性智能已经并将继续出现。
我们至少可以通过两种方式观察这一点: 在
由人类用户在新的“半人马”配置中以及在推理模型本身内部和之间蓬勃发展的微社会中进行。让我们从后者开始。
表面上单一的推理模型内部会发生什么?事实证明,这是一次社区对话。在最近的一项研究中,我们证明了像 DeepSeek-R1 和 QwQ-32B 这样的前沿推理模型并不能仅仅通过“思考更长时间”而得到改善。相反,他们在自己的思维链中模拟复杂的、类似多代理的交互——我们称之为
这些模型自发地在不同的认知观点之间产生争论、质疑、验证和调和的内部争论。这种对话结构因果地解释了模型在硬推理任务上的准确性优势,我们通过明确启动和放大多方对话来证明这一点。
这一发现令人震惊,因为它揭示了一种突发行为。这些模型都没有经过训练来产生思想社会。当强化学习仅用于奖励基础模型的推理准确性时,它们
仅通过优化压力,模型正在重新发现几个世纪的认识论和
有建议:
,
这打开了一个广阔但熟悉的设计空间。社会科学和组织科学花了一个世纪的时间来研究如何做到这一点
, 组合,
、角色差异、冲突规范、制度和网络结构塑造集体绩效。这些研究几乎都没有被
。
。正如
,不是一个元思维。
