详细内容或原文请订阅后点击阅览
随着它们对现实的建模越来越好,主要推理模型如何汇聚到同一个“大脑”
因为只有一个现实需要建模!主要推理模型如何在对现实建模越来越好时收敛到同一个“大脑”一文首先出现在《走向数据科学》上。
来源:走向数据科学我是人工智能领域最有趣的发现(和主题)之一,抛开关于这是否是智能的争论。
我们(至少是我!)假设,如果你纯粹基于图像训练一个人工智能模型,而纯粹基于文本训练另一个人工智能模型,它们会发展出完全不同的“思维”方式——而不是参与关于这到底意味着什么的讨论。我们的想法是,他们使用完全不同的架构并处理完全不同的数据,因此从所有逻辑来看,他们应该拥有完全不同的“大脑”,即使他们都擅长处理图像和文本的任务。
但根据不同团体的一些令人兴奋的研究,事实并非如此!
早在 2024 年,麻省理工学院就提出了确凿的证据,表明每个主要的人工智能模型都在秘密地汇聚到同一个“思维核心”(或大脑,或者无论你想怎么称呼它)。随着这些模型变得越来越大、越来越强大,它们都得出了关于世界如何构造的完全相同的结论。也许对于早期的模型来说,这一点并不明显,因为它们不擅长推理。但随着他们变得更好,这一点变得越来越明显。据称,我想说,其原因是,如果它们都是正确的,那么它们必须创建一个非常相似的现实表示。
(AI) 洞穴的寓言
为了理解为什么会发生这种情况,一些研究人员回顾了 2,400 年前柏拉图的“洞穴寓言”,从而产生了一些有趣的预印本标题,其中包含“柏拉图表征假说”等想法。从本质上讲,柏拉图认为我们人类就像山洞里的囚犯,看着墙上的影子闪烁。我们认为阴影(我们的感知)是“现实”,但它们实际上只是洞穴之外存在的更深、隐藏、更复杂的现实的投影。
不同的眼睛,相同的视野
为什么规模改变一切
显然,这种情况的发生是因为模型受到了一些“选择压力”:
