释放 RAG 工作流的全部潜力为什么、何时以及如何对增强型 RAG 进行分块我们如何分割球?(使用 Cava 生成)大型语言模型在单个请求中可以处理的最大标记数称为上下文长度(或上下文窗口)。下表显示了所有版本的 GPT-4 的上下文长度(截至 2024 年 9 月)。虽然上下文长度随着每次迭代和每个新模型而增加,但我们可以为模型提供的信息仍然有限。此外,输入的大小与 LLM 生成的响应的上下文相关性之间存在反比关系,简短而集中的输入比包含大量信息的长上下文产生更好的结果。这强调了将数据分解成更小、更相关的块的重要性,以确保 LLM 做出更合适的响应 — — 至少在 LLM 无需重新训练即可处
Using Evaluations to Optimize a RAG pipeline: from Chunkings and Embeddings to LLMs
使用 Milvus 矢量数据库的最佳实践 RAG,第 2 部分继续阅读 Towards Data Science »
Amazon Bedrock 的知识库是一项完全托管的服务,可帮助您实施从提取到检索和快速增强的整个检索增强生成 (RAG) 工作流,而无需构建自定义数据源集成和管理数据流,从而突破了您在 RAG 工作流中可以做的事情的界限。然而,它是 [...]
Pandas and Large DataFrames: How to Read in Chunks
为什么重要:随着数据集平均越来越大,了解如何有效地处理内存中的数据可以提高您作为数据专业人员的工作效率和灵活性。了解如何在 Pandas 中处理这些数据将使您能够轻松地大规模管理数据。
Dataset Decomposition: Faster LLM Training with Variable Sequence Length Curriculum
大型语言模型 (LLM) 通常在由固定长度的标记序列组成的数据集上进行训练。这些数据集是通过随机连接不同长度的文档,然后将它们分块为预定目标长度的序列 (concat-and-chunk) 来创建的。最近的注意力实现掩盖了跨文档注意力,减少了标记块的有效长度。此外,由于注意力的二次成本,对长序列的训练在计算上变得难以承受。在本研究中,我们引入了数据集分解,一种新颖的可变序列长度……
GraphRAG in Action: From Commercial Contracts to a Dynamic Q&A Agent
基于问题的提取方法在这篇博文中,我们介绍了一种利用图形检索增强生成 (GraphRAG) 方法的方法 — 以简化提取商业合同数据和构建问答代理的过程。这种方法与传统的 RAG(检索增强生成)不同,它强调数据提取的效率,而不是不加区分地分解和矢量化整个文档,这是主要的 RAG 方法。在传统的 RAG 中,每个文档都被分成块并进行矢量化以进行检索,这会导致大量不必要的数据被拆分、分块并存储在矢量索引中。然而,这里的重点是从每个合同中提取最相关的信息,以用于特定用例,即商业合同审查。然后将数据构建成知识图谱,该图谱组织关键实体和关系,从而允许通过 Cypher 查询和向量搜索进行更精确的图数据检索。
Your Documents Are Trying to Tell You What’s Relevant: Better RAG Using Links
文档数据集已经具有结构。充分利用它。照片由 Jayne Harris 在 Unsplash 上拍摄构建检索增强生成 (RAG) 应用程序面临多层挑战。文档检索是 RAG 工作流程的重要组成部分,它本身就是一组复杂的步骤,可以根据用例以不同的方式处理。RAG 系统很难找到与细微输入提示相关的最佳文档集,尤其是在完全依赖向量搜索来找到最佳候选者时。然而,我们的文档本身通常会告诉我们应该在哪里寻找有关给定主题的更多信息——通过引文、交叉引用、脚注、超链接等。在本文中,我们将展示一种新的数据模型——链接文档——如何通过使我们能够解析和保留这些对其他文本的直接引用来解锁性能改进,使它们可供同时检索——无
Automate Video Chaptering with LLMs and TF-IDF
将原始记录转换为结构良好的文档照片由 Jakob Owens 在 Unsplash 上拍摄视频章节划分是将视频分割成不同章节的任务。除了像 YouTube 章节那样用作导航辅助之外,它还是一系列下游应用的核心,从信息检索(例如 RAG 语义分块)到引用或摘要。在最近的一个项目中,我需要自动执行此任务,但对可用的选项有限感到惊讶,尤其是在开源领域。虽然一些专业工具或付费 API 提供了此类服务,但我找不到任何提供足够强大和准确解决方案的库或教程。如果您知道任何内容,请在评论中分享!如果您想知道为什么不简单地将记录复制并粘贴到大型语言模型 (LLM) 中并要求提供章节标题,那么由于两个原因,这样做
Scale Up Your RAG: A Rust-Powered Indexing Pipeline with LanceDB and Candle
为大规模文档处理构建高性能嵌入和索引系统照片由 Marc Sendra Martorell 在 Unsplash 上拍摄1. 简介最近,检索增强生成 (或简称 RAG) 已成为使用大型语言模型构建生成式 AI 应用程序的事实标准。RAG 通过确保生成模型使用适当的上下文来增强文本生成,同时避免了为同一任务微调 LLM 所涉及的时间、成本和复杂性。RAG 还允许更有效地使用外部数据源并更轻松地更新模型的“知识”。尽管基于 RAG 的 AI 应用程序通常可以使用更适中或更小的 LLM,但它们仍然依赖于嵌入和索引所需知识库的强大管道,以及能够有效地检索并将相关上下文注入模型提示。在许多用例中,可以使
A Look Back at Our 21 Trends for 2021
现在,这一年即将结束,Mike 再次与虚拟联合主持人 Nancy 一起回顾了我们的 2021 年 21 个趋势,看看我们做得如何。我们犯了哪些趋势错误,我们可以从中学到什么?我们做对了哪些趋势?我们如何识别 2022 年的新趋势?当我们结束 2021 年时,分块、叙事流和积极性如何影响我们不断发展的思维?请收听以找出答案。我们参考了全年的许多剧集,还推荐《每日播客》的《学校董事会战争》剧集来补充对话。我们希望你喜欢。如果你仔细听,你甚至可能会一路收集到我们即将推出的 2022 年 22 个趋势剧集的一些内容。一如既往地感谢你的收听。订阅 Trending in Education,无论您在哪里
Active Learning Online with Author Dr. Stephen Kosslyn
Stephen Kosslyn 博士重返节目,与 Mike Palmer 一起深入探讨他的新书《在线主动学习》中涵盖的主题。深度处理到底意味着什么?如何释放其学习能力?分块和关联与我们学习的方式有何关系?什么是双重编码原则?教学设计师应如何利用它来确保他们的课程留在学习者的脑海中?我们将在一次您不容错过的深度信息对话中探讨所有这些问题。如果您喜欢听到的内容,请订阅您收听播客的任何地方,并访问我们的 TrendinginEducation. com。
Active Learning in the Digital Age with Dr. Stephen Kosslyn
Foundry College 校长 Stephen Kosslyn 博士重返“教育趋势”,讨论他正在撰写的一本新书。这本书的暂定名称为《数字时代的主动学习》,涵盖了推动主动学习的六个关键原则。这些原则包括深度处理、刻意练习、激励和后果、双重编码、分块和联想。与 Stephen 和 Mike 一起探索这些概念,以及如何应用它们来在这个动荡的时代创造出色的学习干预措施。一如既往地感谢您的收听!