详细内容或原文请订阅后点击阅览
思考的成本
麻省理工学院的神经科学家发现人类和新的人工智能模型解决复杂问题的方式有惊人的相似之处。
来源:MIT新闻 - 人工智能像 ChatGPT 这样的大型语言模型 (LLM) 几乎可以立即写一篇文章或规划一个菜单。但直到最近,也很容易难倒他们。这些模型依靠语言模式来响应用户的查询,经常无法解决数学问题,也不擅长复杂的推理。然而,突然之间,他们在这些事情上变得更好了。
新一代法学硕士(称为推理模型)正在接受培训以解决复杂问题。和人类一样,他们需要一些时间来思考这些问题——值得注意的是,麻省理工学院麦戈文大脑研究所的科学家们发现,最需要推理模型处理的问题正是人们需要花时间处理的问题。换句话说,他们今天在《美国国家科学院院刊》(PNAS)杂志上报告说,推理模型的“思考成本”与人类的思考成本相似。
今天在 PNAS 杂志上报道 美国国家科学院院刊由脑与认知科学副教授、麦戈文研究所研究员 Evelina Fedorenko 领导的研究人员得出的结论是,推理模型至少在一个重要方面具有类似人类的思维方式。他们指出,这并非有意为之。 “构建这些模型的人并不关心他们是否像人类一样。他们只想要一个能够在各种条件下稳健运行并产生正确响应的系统,”费多伦科说。 “事实上,存在一些趋同确实非常引人注目。”
埃维琳娜·费多连科推理模型
“直到最近,还有人说,‘这些模型确实擅长感知和语言等方面,但距离我们拥有能够进行推理的神经网络模型还有很长的路要走,”Fedorenko 说。 “然后这些大型推理模型出现了,它们似乎在许多思考任务上做得更好,比如解决数学问题和编写计算机代码。”
K. Lisa Yang ICoN 中心时间与令牌
