通过检索增强微调增强您的 LLM

了解检索增强微调 (RAFT),这是一种将检索增强生成 (RAG) 的优势与微调功能相结合的方法。

来源:Clarifai博客 | 实际应用中的人工智能

简介

大型语言模型(LLMS)对于在医疗或法律文件等专业领域的回答问题中变得越来越有价值。为了提高他们的性能,通常可以通过检索演奏生成(RAG)或微调的技术将特定于域的知识注入LLM。在这篇博客文章中,我们探索了一种微调技术,称为检索增强的微调(RAFT),并评估其在适应专用域中的RAG预先训练的LLMS方面的有效性。

抹布今天

抹布是一种在处理预阶段不“烘烤”的知识时增强LLM的方法。这通常涉及特定的域或更多最新信息。构建抹布系统的一种常见方法是从矢量存储中检索块的文档并将其直接注入LLM提示。例如,LLM的常见提示看起来像这样:

“上下文信息如下:\ n {contexts} \ ngiven上下文信息而不是先验知识,请回答查询。

在4行代码指南中查看我们的抹布。

抹布4行代码

虽然这些系统易于构建,但仍可能有额外的性能被挤出的空间。辩论转移到抹布还是微调对给定用例中更可取。最近的一篇名为RAFT研究的论文研究了这个问题,并提出了一种新的方法,可以使用带有检索提示的答案(QA)数据来调整预训练的LLM。

什么是筏?

Zhang等 图1:示例LLM提示在给定相关上下文以及一组干扰器文档的情况下生成COT答案。 为什么使用筏? 原始的筏纸使用Llama2-7b模型提出了实验,证明了其在各种专用域中的有效性。特别是,使用抹布通常会改善质量检查的性能,而不是使用LLM,微调和木筏始终超过碎布的幅度更大。 RAFT在更新的LLM上的表现如何? hotpotqa

Zhang等

图1:示例LLM提示在给定相关上下文以及一组干扰器文档的情况下生成COT答案。

为什么使用筏?

原始的筏纸使用Llama2-7b模型提出了实验,证明了其在各种专用域中的有效性。特别是,使用抹布通常会改善质量检查的性能,而不是使用LLM,微调和木筏始终超过碎布的幅度更大。

RAFT在更新的LLM上的表现如何?hotpotqa