在这篇文章中,我们演示了如何使用自然语言和图像查询使用大型视觉模型(LVM)进行语义视频搜索。我们介绍了一些特定于用例的方法,例如时间框架平滑和聚类,以增强视频搜索性能。此外,我们通过在Amazon Sagemaker AI上使用异步和实时托管选项来演示这种方法的端到端功能,以使用拥抱面部模型中心上的公开可用的LVMS执行视频,图像和文本处理。最后,我们将Amazon OpenSearch与其矢量引擎一起用于低延迟语义视频搜索。
Using Amazon OpenSearch ML connector APIs
OpenSearch提供了广泛的第三方机器学习(ML)连接器,以支持此增强。这篇文章突出显示了这些第三方ML连接器中的两个。我们演示的第一个连接器是Amazon Classend Connector。在这篇文章中,我们向您展示如何使用此连接器调用LangDetect API来检测摄入文档的语言。我们演示的第二个连接器是亚马逊基岩连接器,用于调用Amazon Titan Text Embeddings V2模型,以便您可以从摄入的文档中创建嵌入并执行语义搜索。
在这篇文章中,我们将使用OpenSearch Service构建混合搜索解决方案,该服务由亚马逊泰坦多模式多模式嵌入G1模型通过Amazon Bedrock提供的多模式嵌入。该解决方案演示了如何使用户提交文本和图像作为查询,以从示例零售图像数据集中检索相关结果。
在本文中,我们展示了 OfferUp 如何使用 Amazon Titan Multimodal Embeddings 和 OpenSearch Service 转变其基础搜索架构,从而显著提高用户参与度、提高搜索质量并为用户提供使用文本和图像进行搜索的能力。OfferUp 选择 Amazon Titan Multimodal Embeddings 和 Amazon OpenSearch Service 是因为它们具有完全托管的功能,能够开发出具有高准确度的强大多模态搜索解决方案,并加快搜索和推荐用例的上市时间。
Build a read-through semantic cache with Amazon OpenSearch Serverless and Amazon Bedrock
这篇文章介绍了一种优化基于 LLM 的应用程序的策略。鉴于对高效且经济高效的 AI 解决方案的需求日益增加,我们提出了一种使用重复数据模式的无服务器读取缓存蓝图。借助此缓存,开发人员可以有效地保存和访问类似的提示,从而提高系统的效率和响应时间。
今天,我们很高兴地宣布 Amazon Bedrock 知识库和 Amazon OpenSearch Serverless 中推出了 Amazon Titan 文本嵌入 V2 的二进制嵌入。这篇文章总结了这种新的二进制向量支持的好处,并为您提供了入门信息。
Adobe enhances developer productivity using Amazon Bedrock Knowledge Bases
Adobe使用Amazon Bedrock知识库和Amazon OpenSearch无服务器的Amazon Bedrock知识库和矢量引擎合作。该解决方案极大地改善了他们的开发人员支持系统,从而提高了检索准确性20%。在这篇文章中,我们讨论了该解决方案的细节以及Adobe如何提高其开发人员的生产率。
Transforming financial analysis with CreditAI on Amazon Bedrock: Octus’s journey with AWS
在这篇文章中,我们演示了Octus如何将其旗舰产品Creditai迁移到亚马逊基岩,从而改变了投资专业人员如何访问和分析信用情报。我们踏上了Octus的旅程,从管理多个云提供商和昂贵的GPU实例到使用AWS服务(包括Amazon Bedrock,AWS Fargate和Amazon OpenSearch Service)的AWS服务实施简化的,具有成本效益的解决方案。
Simplify automotive damage processing with Amazon Bedrock and vector databases
本博文探讨了一种解决方案,该解决方案利用 AWS 生成式 AI 功能(如 Amazon Bedrock 和 OpenSearch 向量搜索)为保险公司、维修店和车队经理进行损害评估。
在本文中,您将学习如何使用 Amazon Rekognition 从图像查询中提取关键对象,并使用 Amazon Bedrock 的 Amazon Titan Multimodal Embeddings 结合 Amazon OpenSearch Serverless Service 构建反向图像搜索引擎。
Super charge your LLMs with RAG at scale using AWS Glue for Apache Spark
在本文中,我们将探讨在 LangChain(一个基于 LLM 构建应用程序的开源框架)上构建可重复使用的 RAG 数据管道,并将其与 AWS Glue 和 Amazon OpenSearch Serverless 集成。最终解决方案是可扩展 RAG 索引和部署的参考架构。
在本文中,我们将探讨如何使用新的 EMR Serverless 集成、Spark 的分布式处理以及由 LangChain 编排框架提供支持的 Amazon OpenSearch Service 向量数据库构建可扩展且高效的检索增强生成 (RAG) 系统。此解决方案使您能够处理大量文本数据,生成相关嵌入,并将它们存储在强大的向量数据库中,以实现无缝检索和生成。
VerifAI Project: Open Source Biomedical Question Answering with Verified Answers
基于 Qdrant 和 OpenSearch 索引构建 LLM(Mistral 7B)生物医学问答系统的经验,并采用幻觉检测方法去年 9 月(2023 年),在获得 Horizon Europe 的 NGI Search 资助计划的资助后,我们着手开发 VerifAI 项目。该项目的想法是创建一个基于经过审查的文档(因此我们使用了一个名为 PubMed 的生物医学期刊出版物库)的生物医学领域生成搜索引擎,并使用一个额外的模型来验证生成的答案,通过比较引用的文章和生成的声明。在生物医学等领域,以及一般科学领域,人们对幻觉的容忍度很低。虽然有些项目和产品(例如 Elicit 或 Perplex