Build a read-through semantic cache with Amazon OpenSearch Serverless and Amazon Bedrock
这篇文章介绍了一种优化基于 LLM 的应用程序的策略。鉴于对高效且经济高效的 AI 解决方案的需求日益增加,我们提出了一种使用重复数据模式的无服务器读取缓存蓝图。借助此缓存,开发人员可以有效地保存和访问类似的提示,从而提高系统的效率和响应时间。
今天,我们很高兴地宣布 Amazon Bedrock 知识库和 Amazon OpenSearch Serverless 中推出了 Amazon Titan 文本嵌入 V2 的二进制嵌入。这篇文章总结了这种新的二进制向量支持的好处,并为您提供了入门信息。
在本文中,我们将探讨如何使用新的 EMR Serverless 集成、Spark 的分布式处理以及由 LangChain 编排框架提供支持的 Amazon OpenSearch Service 向量数据库构建可扩展且高效的检索增强生成 (RAG) 系统。此解决方案使您能够处理大量文本数据,生成相关嵌入,并将它们存储在强大的向量数据库中,以实现无缝检索和生成。
Build modern serverless solutions following best practices using Amazon Q Developer CLI and MCP
This post explores how the AWS Serverless MCP server accelerates development throughout the serverless lifecycle, from making architectural decisions with tools like get_iac_guidance and get_lambda_guidance, to streamlining development with get_serverless_templates, sam_init, to deployment with SAM
在这篇文章中,我们演示了如何使用自然语言和图像查询使用大型视觉模型(LVM)进行语义视频搜索。我们介绍了一些特定于用例的方法,例如时间框架平滑和聚类,以增强视频搜索性能。此外,我们通过在Amazon Sagemaker AI上使用异步和实时托管选项来演示这种方法的端到端功能,以使用拥抱面部模型中心上的公开可用的LVMS执行视频,图像和文本处理。最后,我们将Amazon OpenSearch与其矢量引擎一起用于低延迟语义视频搜索。
在本文中,您将学习如何使用 Amazon Rekognition 从图像查询中提取关键对象,并使用 Amazon Bedrock 的 Amazon Titan Multimodal Embeddings 结合 Amazon OpenSearch Serverless Service 构建反向图像搜索引擎。
Super charge your LLMs with RAG at scale using AWS Glue for Apache Spark
在本文中,我们将探讨在 LangChain(一个基于 LLM 构建应用程序的开源框架)上构建可重复使用的 RAG 数据管道,并将其与 AWS Glue 和 Amazon OpenSearch Serverless 集成。最终解决方案是可扩展 RAG 索引和部署的参考架构。
Automate derivative confirms processing using AWS AI services for the capital markets industry
在本文中,我们将展示如何使用 AWS AI 服务大规模自动化和智能化地处理衍生品确认。该解决方案结合了 Amazon Textract(一种完全托管的 ML 服务,可轻松从扫描的文档中提取文本、手写和数据)和 AWS Serverless 技术(一套完全托管的事件驱动服务,用于运行代码、管理数据和集成应用程序,所有这些都无需管理服务器)。