Serverless关键词检索结果

构建使用 Amazon OpenSearch Serverless 和 Amazon Bedrock 读取语义缓存

Build a read-through semantic cache with Amazon OpenSearch Serverless and Amazon Bedrock

这篇文章介绍了一种优化基于 LLM 的应用程序的策略。鉴于对高效且经济高效的 AI 解决方案的需求日益增加,我们提出了一种使用重复数据模式的无服务器读取缓存蓝图。借助此缓存,开发人员可以有效地保存和访问类似的提示,从而提高系统的效率和响应时间。

使用 Amazon Titan Text Embeddings V2、Amazon OpenSearch Serverless 和 Amazon Bedrock 知识库中的二进制嵌入构建经济高效的 RAG 应用程序

Build cost-effective RAG applications with Binary Embeddings in Amazon Titan Text Embeddings V2, Amazon OpenSearch Serverless, and Amazon Bedrock Knowledge Bases

今天,我们很高兴地宣布 Amazon Bedrock 知识库和 Amazon OpenSearch Serverless 中推出了 Amazon Titan 文本嵌入 V2 的二进制嵌入。这篇文章总结了这种新的二进制向量支持的好处,并为您提供了入门信息。

使用 LangChain 和 PySpark 通过 Amazon SageMaker Studio 和 Amazon EMR Serverless 大规模处理文档

Use LangChain with PySpark to process documents at massive scale with Amazon SageMaker Studio and Amazon EMR Serverless

在本文中,我们将探讨如何使用新的 EMR Serverless 集成、Spark 的分布式处理以及由 LangChain 编排框架提供支持的 Amazon OpenSearch Service 向量数据库构建可扩展且高效的检索增强生成 (RAG) 系统。此解决方案使您能够处理大量文本数据,生成相关嵌入,并将它们存储在强大的向量数据库中,以实现无缝检索和生成。

使用Amazon Q Developer CLI和MCP

Build modern serverless solutions following best practices using Amazon Q Developer CLI and MCP

This post explores how the AWS Serverless MCP server accelerates development throughout the serverless lifecycle, from making architectural decisions with tools like get_iac_guidance and get_lambda_guidance, to streamlining development with get_serverless_templates, sam_init, to deployment with SAM

使用开源大型视觉模型在Amazon Sagemaker和Amazon OpenSearch serverless上实现语义视频搜索

Implement semantic video search using open source large vision models on Amazon SageMaker and Amazon OpenSearch Serverless

在这篇文章中,我们演示了如何使用自然语言和图像查询使用大型视觉模型(LVM)进行语义视频搜索。我们介绍了一些特定于用例的方法,例如时间框架平滑和聚类,以增强视频搜索性能。此外,我们通过在Amazon Sagemaker AI上使用异步和实时托管选项来演示这种方法的端到端功能,以使用拥抱面部模型中心上的公开可用的LVMS执行视频,图像和文本处理。最后,我们将Amazon OpenSearch与其矢量引擎一起用于低延迟语义视频搜索。

使用 Amazon Bedrock 和 AWS 托管服务中的 Amazon Titan 多模式嵌入构建反向图像搜索引擎

Build a reverse image search engine with Amazon Titan Multimodal Embeddings in Amazon Bedrock and AWS managed services

在本文中,您将学习如何使用 Amazon Rekognition 从图像查询中提取关键对象,并使用 Amazon Bedrock 的 Amazon Titan Multimodal Embeddings 结合 Amazon OpenSearch Serverless Service 构建反向图像搜索引擎。

使用 AWS Glue for Apache Spark 大规模使用 RAG 为您的 LLM 充电

Super charge your LLMs with RAG at scale using AWS Glue for Apache Spark

在本文中,我们将探讨在 LangChain(一个基于 LLM 构建应用程序的开源框架)上构建可重复使用的 RAG 数据管道,并将其与 AWS Glue 和 Amazon OpenSearch Serverless 集成。最终解决方案是可扩展 RAG 索引和部署的参考架构。

使用 AWS AI 服务为资本市场行业自动处理衍生品确认

Automate derivative confirms processing using AWS AI services for the capital markets industry

在本文中,我们将展示如何使用 AWS AI 服务大规模自动化和智能化地处理衍生品确认。该解决方案结合了 Amazon Textract(一种完全托管的 ML 服务,可轻松从扫描的文档中提取文本、手写和数据)和 AWS Serverless 技术(一套完全托管的事件驱动服务,用于运行代码、管理数据和集成应用程序,所有这些都无需管理服务器)。