Amazon Finance Automation 如何使用 Amazon Bedrock 构建生成式 AI 问答聊天助手
Amazon Finance Automation 在 Amazon Bedrock 上开发了一个基于大型语言模型 (LLM) 的问答聊天助手。该解决方案使分析师能够快速检索客户查询的答案,并在同一通信线程内生成快速响应。因此,它大大减少了解决客户查询所需的时间。在这篇文章中,我们分享了 Amazon Finance Automation 如何使用 Amazon Bedrock 构建这个生成式 AI 问答聊天助手。
来源:亚马逊云科技 _机器学习如今,Amazon Finance 运营中的应付账款 (AP) 和应收账款 (AR) 分析师通过电子邮件、案例、内部工具或电话接收来自客户的查询。当出现查询时,分析师必须参与一个耗时的过程,即联系主题专家 (SME) 并查看包含与查询相关的标准操作程序 (SOP) 的多个政策文件。这种来回沟通过程通常需要数小时到数天的时间,主要是因为分析师(尤其是新员工)无法立即获得必要的信息。他们花费数小时咨询 SME 并审查大量政策文件。
为了应对这一挑战,Amazon Finance Automation 在 Amazon Bedrock 上开发了一个基于大型语言模型 (LLM) 的问答聊天助手。该解决方案使分析师能够快速检索客户查询的答案,并在同一通信线程内生成快速响应。因此,它大大减少了解决客户查询所需的时间。
大型语言模型 Amazon Bedrock在本文中,我们分享了 Amazon Finance Automation 如何使用 Amazon Bedrock 构建此生成式 AI 问答聊天助手。
生成式 AI解决方案概述
该解决方案基于在 Amazon Bedrock 上运行的检索增强生成 (RAG) 管道,如下图所示。当用户提交查询时,RAG 首先从知识库中检索相关文档,然后使用 LLM 从检索到的文档中生成响应。
检索增强生成该解决方案由以下关键组件组成:
知识库 Amazon OpenSearch 服务 Amazon Bedrock 知识库 嵌入模型 Amazon Titan 多模态嵌入 G1问题