使用LLMS供电的分步指南

探索一个动手指南,将大型语言模型集成到现实世界中的应用程序中,而不仅仅是阅读有关它。帖子逐步使用LLMS供电您的应用程序为数据科学供电。

来源:走向数据科学

Genai是仅仅是炒作还是外部噪声。我还认为这是炒作,我可以坐下直到灰尘清除。哦,男孩,我错了。 Genai具有实际应用。它还为公司产生收入,因此我们希望公司在研究方面投资大量投资。每当技术破坏某些东西时,该过程通常会贯穿以下阶段:否认,愤怒和接受。引入计算机时也发生了同样的事情。如果我们在软件或硬件字段中工作,则可能需要在某个时候使用Genai。

在本文中,我介绍了如何使用大语言模型(LLM)为您的应用程序供电,并讨论我在设置LLM时面临的挑战。让我们开始。

llms

1。首先定义您的用例

跳到LLM之前,我们应该问自己一些问题

a。我的LLM解决什么问题? b。我的应用程序可以在没有LLMC的情况下执行。我是否有足够的资源和计算能力来开发和部署此应用程序?

缩小您的用例并进行记录。就我而言,我正在研究数据平台作为服务。我们有大量有关Wiki,Slack,Team Channels等的信息。我们希望聊天机器人可以阅读此信息并代表我们回答问题。聊天机器人将代表我们回答客户的问题和请求,如果客户仍然不高兴,他们将被路由到工程师。

2。选择您的模型

solen feyissa Unplash Llama chatgpt

3。根据您的数据增强模型

拥有模型后,您就可以扩展模型。 LLM模型对一般数据进行了培训。我们想对我们的数据进行训练。我们的模型需要更多的上下文来提供答案。假设我们想构建一个餐厅聊天机器人,以回答客户问题。该模型不知道您餐厅的特殊信息。因此,我们希望为模型提供一些上下文。我们可以通过多种方法来实现这一目标。让我们深入研究其中的一些。

上下文

提示工程

限制
RLHF模型
Langchain

修剪