Implement RAG while meeting data residency requirements using AWS hybrid and edge services
在本文中,我们展示了如何将 Amazon Bedrock Agents 扩展到混合和边缘服务(例如 AWS Outposts 和 AWS Local Zones),以使用本地数据构建分布式检索增强生成 (RAG) 应用程序,从而改善模型结果。借助 Outposts,我们还涵盖了完全本地 RAG 应用程序的参考模式,该应用程序需要基础模型 (FM) 和数据源都驻留在本地。
Unlocking complex problem-solving with multi-agent collaboration on Amazon Bedrock
AWS 的研究团队已广泛致力于构建和评估多代理协作 (MAC) 框架,以便客户可以在 Amazon Bedrock Agents 上协调多个 AI 代理。在这篇文章中,我们探讨了多代理协作 (MAC) 的概念及其优势,以及我们 MAC 框架的关键组件。我们还深入探讨了我们的评估方法,并介绍了我们研究的见解。
这篇文章展示了 MuleSoft 如何使用 Amazon Q Business 引入生成式 AI 助手来增强其内部 Cloud Central 仪表板。这个个性化门户向 100 多名工程师展示了所拥有的资产、成本和使用情况以及精心设计的建议。
Build an Amazon Bedrock based digital lending solution on AWS
在本文中,我们将使用 DigitalDhan 提出一种解决方案,DigitalDhan 是一种基于生成式 AI 的解决方案,用于自动化客户入职和数字贷款。 所提出的解决方案使用 Amazon Bedrock Agents 来自动化与 KYC 验证、信用和风险评估以及通知相关的服务。 金融机构可以使用此解决方案来帮助自动化客户入职、KYC 验证、信用决策、信用承保和通知流程。
Amazon Bedrock 是一项完全托管的服务,它通过单一 API 提供来自 AI21 Labs、Anthropic、Cohere、Meta、Mistral AI、Stability AI 和 Amazon 等领先 AI 公司的高性能基础模型 (FM),以及一系列广泛的功能,用于构建具有安全性、隐私性和负责任 AI 的生成式 AI 应用程序。在这篇文章中,我将向您展示如何将 Amazon Bedrock(及其完全托管的按需 API)与您的 Amazon SageMaker 训练或微调模型结合使用。
应开发生成式 AI 应用程序,并采用足够的控制来指导 FM 的行为。负责任的 AI 考虑因素(例如隐私、安全性、可控性、公平性、可解释性、透明度和治理)有助于确保 AI 系统值得信赖。在这篇文章中,我们演示了如何使用 AWS Audit Manager 上的 AWS 生成式 AI 最佳实践框架从负责任的 AI 角度评估此保险索赔代理。
London Stock Exchange Group uses Amazon Q Business to enhance post-trade client services
在这篇博文中,我们探讨了伦敦证券交易所集团 (LSEG) 使用 Amazon Q Business 开发的客户服务代理助理应用程序。我们将讨论 Amazon Q Business 如何在生成答案方面节省时间,包括总结文档、检索复杂会员查询的答案以及组合来自不同数据源的信息(同时为每个答案使用的数据源提供文内引用)。
Evaluate large language models for your machine translation tasks on AWS
这篇博客文章及其附带代码介绍了一种解决方案,可使用 Amazon Bedrock 中的基础模型 (FM) 试验实时机器翻译。它可以帮助收集更多有关 LLM 对您的内容翻译用例的价值的数据。
Parameta accelerates client email resolution with Amazon Bedrock Flows
在本文中,我们将向您展示 Parameta 如何使用 Amazon Bedrock Flows 将他们的手动客户电子邮件处理转变为自动化、智能的工作流程,从而将解决时间从几周缩短到几天,同时保持高准确性和运营控制。
Efficiently build and tune custom log anomaly detection models with Amazon SageMaker
在本文中,我们将引导您完成使用 Amazon SageMaker 构建自动化机制以处理您的日志数据、对其进行训练迭代以获得性能最佳的异常检测模型并将其注册到 Amazon SageMaker 模型注册表以供您的客户使用的过程。
Optimizing costs of generative AI applications on AWS
优化 AWS 上生成式 AI 应用程序的成本对于充分发挥这项变革性技术的潜力至关重要。本文概述了关键的成本优化支柱,包括模型选择和定制、代币使用、推理定价计划和矢量数据库注意事项。
PEFT fine tuning of Llama 3 on SageMaker HyperPod with AWS Trainium
在这篇博文中,我们展示了如何使用 AWS Trainium 上的 PEFT 和 SageMaker HyperPod 对 Meta Llama 3 模型进行高效的监督微调。我们使用 HuggingFace 的 Optimum-Neuron 软件开发工具包 (SDK) 将 LoRA 应用于微调作业,并使用 SageMaker HyperPod 作为主要计算集群在 Trainium 上执行分布式训练。使用 LoRA 监督微调 Meta Llama 3 模型,您可以进一步将微调模型的成本降低高达 50%,并将训练时间缩短 70%。
Using transcription confidence scores to improve slot filling in Amazon Lex
在使用 Amazon Lex 构建支持语音的聊天机器人时,最大的挑战之一是准确捕获用户语音输入以获取槽值。转录置信度分数可以帮助确保可靠的槽填充。这篇博文概述了渐进式确认、自适应重新提示和分支逻辑等策略,以创造更强大的槽填充体验。
Improving Retrieval Augmented Generation accuracy with GraphRAG
AWS 合作伙伴 Lettria 证明,与仅使用向量的检索方法相比,将基于图形的结构集成到 RAG 工作流中可将答案准确率提高高达 35%。在这篇文章中,我们探讨了为什么 GraphRAG 比单独的向量 RAG 更全面、更易于解释,以及如何使用 AWS 服务和 Lettria 使用此方法。
Add a generative AI experience to your website or web application with Amazon Q embedded
Amazon Q 嵌入式功能可让您在网站或应用程序中嵌入托管的 Amazon Q Business 助手,以创建更加个性化的体验,从而提高最终用户的工作效率。在这篇文章中,我们将演示如何使用 Amazon Q 嵌入式功能使用基本 HTML 或 React 将 Amazon Q Business 助手添加到您的网站或 Web 应用程序中。
Design multi-agent orchestration with reasoning using Amazon Bedrock and open source frameworks
这篇文章提供了创建具有推理功能的协作多代理框架的分步说明,以将业务应用程序与 FM 分离。它演示了如何将 Amazon Bedrock 代理与开源多代理框架相结合,从而实现代理之间的协作和推理,以动态执行各种任务。该练习将指导您完成使用 Amazon Bedrock、Amazon Bedrock 知识库、Amazon Bedrock 代理和 FM 构建推理编排系统的过程。我们还探讨了 Amazon Bedrock 代理与开源编排框架 LangGraph 和 CrewAI 的集成,以进行调度和推理。
Fastweb 是意大利领先的电信运营商之一,很早就认识到了 AI 技术的巨大潜力,并于 2019 年开始在该领域进行投资。在本文中,我们将探讨 Fastweb 如何利用尖端的 AI 和 ML 服务踏上他们的 LLM 之旅,克服挑战并在此过程中解锁新机遇。
Simplify multimodal generative AI with Amazon Bedrock Data Automation
Amazon Bedrock Data Automation 公开预览版为所有技能组合的开发人员提供了统一的体验,使他们能够轻松地自动从文档、图像、音频和视频中提取、转换和生成相关见解,以构建生成式 AI 驱动的应用程序。在本文中,我们将演示如何在 AWS 管理控制台中使用 Amazon Bedrock Data Automation 和 AWS SDK for Python (Boto3) 进行媒体分析和智能文档处理 (IDP) 工作流。