详细内容或原文请订阅后点击阅览
加强 LLM 协作以获得更智能、更高效的解决方案
“Co-LLM”算法通过结合两个答案的最佳部分,帮助通用 AI 模型与专家大型语言模型协作,从而得出更真实的响应。
来源:MIT新闻 - 人工智能曾经问过您只知道答案的一部分问题吗?为了给出更明智的回应,您最好的举动是给朋友打电话,对此有更多了解。
此协作过程还可以帮助大型语言模型(LLM)提高其准确性。尽管如此,很难教导LLMs很难认识到他们何时应该与另一个模型合作。麻省理工学院的计算机科学和人工智能实验室(CSAIL)的研究人员没有使用复杂的公式或大量标记的数据来阐明模型应该在哪里合作的位置。
他们的新算法称为“ Co-Lllm”,可以将通用基础LLM与更专业的模型配对,并帮助它们一起工作。当前者一个答案时,共同批评在其响应中审查每个单词(或令牌),以查看它可以从专家模型中获得更准确的答案。此过程会更准确地回复医疗提示,数学和推理问题。由于在每次迭代中都不需要专家模型,因此这也会导致更有效的响应生成。确定基本模型何时需要专家模型的帮助,该框架使用机器学习来训练“开关变量”,或者可以指示两个LLMS响应中每个单词能力的工具。该开关就像项目经理一样,找到应该在专家中呼唤的领域。例如,如果您要求Co-llm列举一些灭绝的熊物种的例子,则两个模型将一起起草答案。通用LLM开始提供答复,开关变量在可以从专家模型中获得更好令牌的各个部分进行了干预,例如增加了熊物种灭绝的一年。
有关该方法的新论文灵活性和事实的结合
bioasq Meditron模型 llemma 代理调整,何时询问专家