详细内容或原文请订阅后点击阅览
我用 Google 的内存代理模式替换了 Obsidian 笔记中的矢量数据库
无需嵌入、Pinecone 或相似性搜索博士学位的持久 AI 内存。我在 Obsidian 中的笔记中用 Google 的内存代理模式替换了向量 DB 的帖子首先出现在 Towards Data Science 上。
来源:走向数据科学这开始是因为我的黑曜石助手总是失忆。我不想站起来 Pinecone 或 Redis 只是为了让 Claude 记得 Alice 上周批准了第三季度预算。事实证明,对于 200K 以上的上下文窗口,您可能不需要任何这些。
我想分享一个我已经开始运行的新机制。这是一个基于 SQLite 和直接 LLM 推理构建的系统,没有矢量数据库,没有嵌入管道。矢量搜索主要是针对微小上下文窗口并防止提示变得混乱的解决方法。对于现代的上下文大小,您通常可以跳过这一点,让模型直接读取您的记忆。
设置
我在个人生活和工作中都会做详细的笔记。我曾经在笔记本上乱写乱画,但这些笔记本会被放错地方或卡在架子上,再也不会被引用。几年前,我把所有事情都搬到了 Obsidian,这真是太棒了。去年,我开始将 genAI 连接到我的笔记中。今天,我运行 Claude Code(用于我的个人笔记)和 Kiro-CLI(用于我的工作笔记)。我可以提出问题,让他们为领导做总结,跟踪我的目标,并写我的报告。但它始终有一个很大的致命弱点:记忆。当我询问会议时,它使用黑曜石 MCP 来搜索我的金库。它既耗时又容易出错,我需要它变得更好。
明显的解决办法是矢量数据库。嵌入记忆。存储向量。在查询时进行相似性搜索。有用。但它也意味着一个 Redis 堆栈、一个 Pinecone 帐户或一个本地运行的 Chroma 实例,加上一个嵌入 API,以及将它们拼接在一起的管道代码。对于个人工具来说,这已经很多了,而且存在着它不能完全按照我需要的方式工作的真正风险。我需要问,“2026 年 2 月 1 日”发生了什么,或者“回顾一下我与这个人的最后一次会面”,这些都是嵌入和 RAG 不太擅长的事情。
访问我的 GitHub 存储库,但请务必回来!
https://github.com/ccrngd1/ProtoGensis/tree/main/memory-agent-bedrock
