为您的 AI 提供无限更新的上下文

可移植知识层背后的架构以及使其保持活力的自动化。“为您的人工智能提供无限更新的上下文”一文首先出现在“迈向数据科学”上。

来源:走向数据科学

)在今年早些时候发布了 GitHub 要点。

名为“LLM Wiki”。约 1,500 字。它描述了一种模式,您可以在其中构建一个由法学硕士为您维护的个人维基:一个持久的、复合的工件,每次您添加内容时它都会变得更加丰富。

知识编译一次并保持最新,而不是在每次查询时从头开始重新派生。

大多数人可能读过它,认为“这很有趣”,然后关闭了标签!

我构建了它,本文展示了如何设置它,我还告诉您我在实现过程中学到了什么。

目前大多数人如何使用人工智能的问题

每个对话都以空白开始。

你打开一个聊天室,解释你是谁,你正在做什么,你上周决定了什么。您会得到有用的回复。您关闭选项卡。明天你再做一次。

该工具工作正常,但它下面的上下文层丢失了!

确实,内置内存有一点帮助。

克劳德记得你的名字和职位。 ChatGPT 知道您更喜欢要点。但两人都不知道有关您正在进行的项目、您即将完成的交易、您上个月排除的供应商或本周您的管道中发生的事情的详细信息。

这种操作状态不会持久存在!

大多数工程师接下来选择的选项是 RAG。

RAG 确实有用,但它解决的是不同的问题。

它在每个查询上从头开始重新获取知识。您嵌入文档,在查询时检索块,并希望正确的片段浮出水面。什么都没有积累。

需要综合五个文档的问题意味着法学硕士每次都必须找到并重新组装这些片段。

本文的 Vault 方法一次性编译知识并使其保持最新状态。当您添加新内容时,法学硕士会对其进行索引、读取、集成、更新相关页面、标记矛盾并维护交叉引用。

在您提出下一个问题之前,综合已经完成。

Karpathy 说得很清楚:wiki 是一个持久的、复合的工件。

三个控制文件