详细内容或原文请订阅后点击阅览
如何使用llamaindex
建立由LlamainDex启动的AI助手的分步指南,如何使用LlamainDex构建AI期刊,首先是迈向数据科学的。
来源:走向数据科学将与LlamainDex分享如何构建AI期刊。我们将介绍此AI期刊的一个基本功能:寻求建议。我们将从最基本的实现开始,然后从那里进行迭代。当我们应用设计模式(例如代理抹布和多代理工作流程)时,我们可以看到此功能的重大改进。您可以在我的github存储库中找到此AI期刊的源代码。关于我是谁。
llamaindex 代理抹布 在这里 我是谁AI期刊的概述
我想遵循雷·达利奥(Ray Dalio)的实践来构建我的原则。 AI期刊将帮助我自我反射,跟踪自己的改进,甚至给我建议。这样的AI期刊的总体功能如下:
ai今天,我们只涵盖了Seek-Advise流的实施,该流程在上图中由多个紫色循环表示。
最简单的形式:llm带有大上下文
在最直接的实现中,我们可以将所有相关内容传递到上下文中,并将我们想提出的问题附加到上下文中。我们可以在LlamainDex中使用几行代码来做到这一点。
llamaindex这种方法具有不利的依据:
- 低精度:加载所有书籍上下文可能会促使LLM对用户的问题失去关注。高昂的成本:在每个LLM呼叫中发送大尺寸的内容都意味着高成本和性能差。
增强的形式:代理抹布
那么,什么是代理抹布? Agentic Rag正在结合动态决策和数据检索。在我们的AI期刊中,代理抹布流如下:
使用此代理抹布,您可以将高度相关的内容检索到用户的问题上,从而产生更多针对性的建议。
no_text
Original_question
状态
内存