详细内容或原文请订阅后点击阅览
大型语言模型思考难题的更智能方式
这项新技术使法学硕士能够根据问题的难度动态调整用于推理的计算量。
来源:MIT新闻 - 人工智能为了使大型语言模型 (LLM) 在回答更难的问题时更加准确,研究人员可以让模型花更多时间思考潜在的解决方案。
但是,为法学硕士提供这种能力的常见方法是为每个问题设置固定的计算预算,无论问题有多复杂。这意味着法学硕士可能会在更简单的问题上浪费计算资源,或者无法解决需要更多推理的复杂问题。
为了解决这个问题,麻省理工学院的研究人员开发了一种更智能的方法来在法学硕士解决问题时分配计算量。他们的方法使模型能够根据问题的难度以及每个部分解决方案得出正确答案的可能性动态调整其计算预算。
研究人员发现,他们的新方法使法学硕士能够使用现有方法的一半的计算量,同时在一系列具有不同难度的问题上达到相当的准确性。此外,他们的方法允许较小、资源密集度较低的法学硕士在复杂问题上的表现与大型模型一样甚至更好。
通过提高法学硕士的可靠性和效率,特别是在处理复杂的推理任务时,该技术可以降低生成式人工智能系统的能耗,并使法学硕士能够在更高风险和时间敏感的应用中使用。
关于该技术的论文Azizan 与主要作者 Young-Jin Park(LIDS/MechE 研究生)一起撰写了该论文; Kristjan Greenewald,MIT-IBM Watson AI 实验室的研究科学家; Kaveh Alim,IDSS 研究生;王浩是 MIT-IBM Watson AI 实验室和红帽 AI 创新团队的研究科学家。该研究将于本周在神经信息处理系统会议上公布。
思考计算
最近有一种称为推理时间缩放的方法,可以让大型语言模型花费更多时间来推理困难问题。
克服过度自信
