详细内容或原文请订阅后点击阅览
随着语言能力的提高,法学硕士对现实的理解也随之发展
在受控实验中,麻省理工学院 CSAIL 的研究人员发现 LLM 内部正在深入发展现实模拟,这表明对语言的理解不仅仅是简单的模仿。
来源:MIT新闻 - 人工智能调查帮助金亲眼目睹了这一进展。它的作用是解释LLM认为指令的含义,揭示了LLM对机器人如何根据每种说明进行响应的方式开发了自己的内部模拟。随着模型解决难题的能力的提高,这些概念也变得更加准确,表明LLM开始理解说明。不久之后,该模型一直正确地将这些作品放在一起以形成工作说明。JIN指出,LLM对语言的理解是分阶段发展的,就像孩子如何以多个步骤学习语音一样。首先,这就像一个婴儿babling:重复性,大多是难以理解的。然后,语言模型获取语法或语言规则。这使其能够生成看起来像真正解决方案的说明,但它们仍然行不通。
LLM的说明逐渐改善。一旦模型获得含义,它就会开始制定正确实施所请求的规范的说明,例如形成连贯句子的孩子。
将方法与模型分开:“ Bizarro世界”探测器仅旨在“插入LLM的大脑”,而Jin的特征是探测器,但是它也有可能对模型做出一些思考。研究人员希望确保他们的模型独立于探针理解指示,而不是从LLM的语法掌握中推断机器人运动的探测器。
即将到来的工作“一个有趣的开放问题是,LLM实际上是否正在使用其内部模型来解决这种现实,因为它解决了机器人导航问题,” Rinard说。 “尽管我们的结果与LLM使用模型以这种方式是一致的,但我们的实验并非旨在回答下一个问题。”