详细内容或原文请订阅后点击阅览
使用 Amazon Aurora 和 Amazon Kendra 开发基于 RAG 的应用程序
RAG 从预先存在的知识库(您的数据)中检索数据,将其与 LLM 的知识相结合,并生成更像人类语言的响应。但是,为了让生成式 AI 理解您的数据,需要进行一定程度的数据准备,这涉及很大的学习曲线。在这篇文章中,我们将引导您了解如何将现有的 Aurora 数据转换为索引,而无需为 Amazon Kendra 进行数据准备以执行数据搜索并实施 RAG,将您的数据与 LLM 知识相结合以产生准确的响应。
来源:亚马逊云科技 _机器学习生成式 AI 和大型语言模型 (LLM) 正在彻底改变不同行业的组织,以提升客户体验,而这通常需要数年时间才能取得进展。每个组织都将数据存储在数据存储中,无论是在本地还是在云提供商中。
生成式 AI您可以通过将现有数据转换为生成式 AI 可以搜索的索引来采用生成式 AI 并提升客户体验。当您向开源 LLM 提出问题时,您会得到公开的信息作为答复。虽然这很有帮助,但生成式 AI 可以帮助您理解数据以及来自 LLM 的附加上下文。这是通过检索增强生成 (RAG) 实现的。
RAG 从预先存在的知识库(您的数据)中检索数据,将其与 LLM 的知识相结合,并生成具有更像人类语言的响应。但是,为了让生成式 AI 理解您的数据,需要进行一定程度的数据准备,这涉及很大的学习曲线。
Amazon Aurora 是为云构建的兼容 MySQL 和 PostgreSQL 的关系数据库。Aurora 将传统企业数据库的性能和可用性与开源数据库的简单性和成本效益相结合。
Amazon Aurora在本文中,我们将引导您了解如何将现有的 Aurora 数据转换为索引,而无需为 Amazon Kendra 执行数据搜索准备数据,并实施 RAG,将您的数据与 LLM 知识相结合以产生准确的响应。
Amazon Kendra解决方案概述
在此解决方案中,使用您现有的数据作为数据源 (Aurora),通过将数据源连接并同步到 Amazon Kendra 搜索来创建智能搜索服务,并执行生成式 AI 数据搜索,该搜索使用 RAG 将您的数据与 LLM 的知识相结合以产生准确的响应。对于这篇文章,我们使用 Anthropic 的 Amazon Bedrock 上的 Claude 作为我们的 LLM。
Amazon Bedrock