如何通过抹布和微调使LLM更准确

以及何时使用on the of the of the toper of to in to in to rag&chilltuning的llm首先出现在数据科学方面。

来源:走向数据科学

想象一下在大学学习一个学期的模块。最后,经过深入的学习阶段,您参加了考试 - 您可以回忆起最重要的概念而无需查找它们。

现在想象第二种情况:询问您一个有关新主题的问题。您不立即知道答案,因此您可以拿起书或浏览Wiki以找到正确的答案信息。

这两个类比代表了改进LLM的基本模型或将其调整为特定任务和领域的两种最重要的方法:检索增强发电(RAG)和微调。

llm 检索增强发电(抹布)和微调。

但是哪个示例属于哪种方法?

这正是我在本文中要解释的:之后,您将知道什么是抹布和微调,最重要的区别以及哪种方法适用于哪种应用。

让我们潜入!

目录

内容表

1。基础:什么是抹布?什么是微调?

大型语言模型(LLM),例如来自Openai的Chatgpt,Google的Gemini,来自Anthropics或DeepSeek的Cla​​ude的Gemini非常强大,并且在非常短的时间内在日常工作中建立了自己的功能。

他们最大的局限性之一是他们的知识仅限于培训。一种在2024年接受培训的模型不知道2025年以来的事件。如果我们从Chatgpt询问4O模型,现任美国总统是谁,并清楚地说明不应使用互联网,我们看到它无法确定地回答这个问题:

作者拍摄的屏幕截图

此外,这些模型无法轻松访问公司特定信息,例如内部准则或当前技术文档。

这正是抹布和微调发挥作用的地方。

两种方法都可以使LLM适应特定要求:

rag - 模型保持不变,输入得到改进

具有检索增强发电(RAG)的LLM保持不变。

它如何工作?

  • 问一个用户问题。
  • 替换