此“智能教练”可帮助LLM在文本和代码之间切换

在解决复杂问题时,CodeSteer系统可以提高大型语言模型的准确性,例如在供应链中安排货物。

来源:MIT新闻 - 人工智能

大型语言模型(LLMS)擅长使用文本推理来理解文档的上下文并提供有关其内容的逻辑答案。但是,这些相同的LLM通常也很难正确回答甚至最简单的数学问题。

文本推理通常是对计算或算法任务进行故意故意的一种理想方式。尽管某些LLM可以生成像Python这样的代码来处理符号查询,但模型并不总是知道何时使用代码,或者哪种代码最有效。

llms似乎需要一名教练来引导他们走向最佳技术。

输入由麻省理工学院研究人员开发的智能助手CodeSteer,它指导LLM在代码和文本生成之间切换,直到正确回答查询。

CodeSteer

CodeSteer本身较小的LLM,会自动生成一系列提示,以迭代地转向较大的LLM。它在每回合后回顾了模型的当前和以前的答案,并为如何修复或完善该解决方案提供指导,直到它认为答案是正确的。

研究人员发现,使用CodeSteer扩大较大的LLM可以提高其在符号任务上的准确性,例如乘以数字,播放Sudoku和堆叠块的精度,增加了30%以上。它还使较不复杂的模型能够以提高的推理技能胜过更高级的模型。

这一进步可以提高LLM的问题解决功能,用于复杂的任务,这些任务仅通过文本推理而难以解决,例如在不确定的环境中为机器人生成路径,或在国际供应链中安排运输。

该研究的高级作者粉丝加入了一份有关Lids研究生Yongchao Chen的作品的论文; Aeroastro研究生Yilun Hao;伊利诺伊大学Urbana-Champaign研究生Yueying Liu;和MIT-IBM Watson AI实验室研究科学家Yang Zhang。该研究将在国际机器学习会议上介绍。 有关工作的论文

粉丝加入了一份有关Lids研究生Yongchao Chen的作品的论文; Aeroastro研究生Yilun Hao;伊利诺伊大学Urbana-Champaign研究生Yueying Liu;和MIT-IBM Watson AI实验室研究科学家Yang Zhang。该研究将在国际机器学习会议上介绍。有关工作的论文