像人类大脑一样,大型语言模型以一般方式有关多种数据的原因

一项新的研究表明,LLMS根据其主要语言中数据的基本含义和原因表示不同的数据类型。

来源:MIT新闻 - 人工智能

虽然早期语言模型只能处理文本,但现代大型语言模型现在在不同类型的数据上执行高度​​多样化的任务。例如,LLM可以理解许多语言,生成计算机代码,解决数学问题或回答有关图像和音频的问题。

MIT研究人员探究了LLM的内部运作,以更好地了解它们如何处理此类数据,并发现证据表明他们与人脑有些相似之处。

神经科学家认为,人脑在前颞叶中具有“语义枢纽”,该叶子从各种方式(例如视觉数据和触觉输入)中整合了语义信息。该语义枢纽连接到特定于模态的“辐条”,该“辐条”将信息路由到集线器。麻省理工学院的研究人员发现,LLMS通过以中央广泛的方式从不同方式处理数据来使用类似的机制。例如,以英语为主导语言的模型将依靠英语作为一种中心媒介,以日语处理输入或有关算术,计算机代码等的理由。此外,研究人员证明,他们可以通过即使模型正在以其他语言处理数据,也使用模型主要语言中的文本来更改其输出。

这些发现可以帮助科学家培训能够更好地处理多种数据的未来LLM。

“ llms是大黑盒子。他们的表现非常令人印象深刻,但是我们对他们的内部工作机制的了解很少。我希望这可以是更好地了解它们的工作方式的早期一步,以便我们可以在需要时改进它们,并在需要时更好地控制它们。这项研究。

这项研究的论文

整合多种数据

整合多种数据 先前的工作

利用语义集线器

利用语义集线器