亚马逊云科技 _机器学习领域信息情报检索

AWS的以下部分介绍了机器学习的文章。Amazon Web Services(AWS)是亚马逊公司内部一个充满活力且不断发展壮大的业务部门。订阅我们,获取关于Amazon Web Services机器学习的文章。

在 Amazon 上部署 RAG 应用程序SageMaker JumpStart 使用 FAISS

Deploy RAG applications on Amazon SageMaker JumpStart using FAISS

在本文中,我们展示了如何使用 Facebook AI 相似性搜索 (FAISS) 在 Amazon SageMaker JumpStart 上构建 RAG 应用程序。

使用 Amazon SageMaker HyperPod 训练计划加快集群采购时间

Speed up your cluster procurement time with Amazon SageMaker HyperPod training plans

在本文中,我们将演示如何使用 Amazon SageMaker HyperPod 训练计划来缩短训练集群采购等待时间。我们将逐步指导您如何使用 (AWS CLI) 或 AWS 管理控制台查找、查看和创建适合您特定计算和时间线需求的最佳训练计划。我们将进一步指导您使用训练计划提交 SageMaker 训练作业或创建 SageMaker HyperPod 集群。

Amazon Bedrock Marketplace 现在包含 NVIDIA 模型:推出 NVIDIA Nemotron-4 NIM 微服务

Amazon Bedrock Marketplace now includes NVIDIA models: Introducing NVIDIA Nemotron-4 NIM microservices

在 AWS re:Invent 2024 上,我们很高兴推出 Amazon Bedrock Marketplace。这是 Amazon Bedrock 中一项革命性的新功能,可作为发现、测试和实施基础模型 (FM) 的集中枢纽。在本文中,我们讨论了 Amazon Bedrock Marketplace 和 Nemotron 模型的优势和功能,以及如何开始使用。

真正的价值,实时:使用 Amazon SageMaker 和 Tecton 实现生产 AI

Real value, real time: Production AI with Amazon SageMaker and Tecton

在本文中,我们讨论了 Amazon SageMaker 和 Tecton 如何协同工作以简化可用于生产的 AI 应用程序的开发和部署,尤其是对于欺诈检测等实时用例。通过抽象复杂的工程任务,该集成可以加快价值实现速度,使团队能够专注于构建功能和用例,同时为 ML 模型的离线训练和在线服务提供精简的框架。

将 Amazon Bedrock 工具与 Amazon SageMaker JumpStart 模型结合使用

Use Amazon Bedrock tooling with Amazon SageMaker JumpStart models

在本文中,我们探讨了如何从 SageMaker JumpStart 部署 AI 模型并将它们与 Amazon Bedrock 的强大功能一起使用。用户可以将 SageMaker JumpStart 的模型托管与 Bedrock 的安全和监控工具相结合。我们以 Gemma 2 9B Instruct 模型为例进行了演示,展示了如何部署它并使用 Bedrock 的高级功能。

推出 Amazon Kendra GenAI Index – 增强的语义搜索和检索功能

Introducing Amazon Kendra GenAI Index – Enhanced semantic search and retrieval capabilities

亚马逊推出了 Amazon Kendra GenAI Index,这是一款旨在增强企业 AI 应用程序的语义搜索和检索功能的新产品。该索引针对检索增强生成 (RAG) 和智能搜索进行了优化,使企业能够构建更有效的数字助理和搜索体验。

使用 Amazon SageMaker 使用来自 AWS 合作伙伴的 AI 应用程序更快地构建生成式 AI 和 ML 解决方案

Building Generative AI and ML solutions faster with AI apps from AWS partners using Amazon SageMaker

今天,我们很高兴地宣布,来自 AWS 合作伙伴的 AI 应用程序现已在 SageMaker 中可用。您现在可以私密且安全地查找、部署和使用这些 AI 应用程序,而无需离开 SageMaker AI,因此您可以更快地开发高性能 AI 模型。

使用 Amazon QuickSight 集成从 Amazon Q Business 查询结构化数据

Query structured data from Amazon Q Business using Amazon QuickSight integration

在本文中,我们将展示 Amazon Q Business 如何与 QuickSight 集成,以使用户能够以统一的方式查询结构化和非结构化数据。通过集成,用户可以连接到 20 多个结构化数据源,例如 Amazon Redshift 和 PostgreSQL,同时通过可视化获得实时答案。Amazon Q Business 通过 QuickSight 将来自结构化源的信息与非结构化内容相结合,为用户查询提供全面的答案。

使用适用于 New Relic AI 的 Amazon Q Business 自定义插件提升客户体验

Elevate customer experience by using the Amazon Q Business custom plugin for New Relic AI

适用于 Amazon Q Business 的 New Relic AI 自定义插件创建了一个统一的解决方案,该解决方案结合了 New Relic AI 的可观察性洞察和建议以及 Amazon Q Business 的检索增强生成 (RAG) 功能,以及易于使用的自然语言界面。本文探讨了用例、此自定义插件的工作原理、如何启用它以及它如何帮助提升客户的数字体验。

Amazon SageMaker 推出了用于生成式 AI 的更新推理优化工具包

Amazon SageMaker launches the updated inference optimization toolkit for generative AI

今天,Amazon SageMaker 很高兴宣布对推理优化工具包进行更新,提供新功能和增强功能,以帮助您更快地优化生成式 AI 模型。在这篇文章中,我们将更详细地讨论该工具包的这些新功能。

先正达开发了一款生成式 AI 助手,使用 Amazon Bedrock Agents 为销售代表提供支持

Syngenta develops a generative AI assistant to support sales representatives using Amazon Bedrock Agents

在本文中,我们将探讨先正达如何与 AWS 合作开发 Cropwise AI,这是一款由 Amazon Bedrock Agents 提供支持的生成式 AI 助手,可帮助销售代表向北美各地的农民提供更好的种子产品推荐。该解决方案通过将复杂数据简化为自然对话、快速访问详细的种子产品信息以及通过移动应用程序界面大规模实现个性化推荐,将种子选择过程转变为现实。

使用 Amazon SageMaker 中新的 NVIDIA 功能加速您的 AI 推理工作负载

Speed up your AI inference workloads with new NVIDIA-powered capabilities in Amazon SageMaker

在 re:Invent 2024 上,我们很高兴地宣布了新功能,利用 Amazon SageMaker 上的 NVIDIA 加速计算和软件产品来加速您的 AI 推理工作负载。在这篇文章中,我们将探讨如何使用这些新功能来增强您在 Amazon SageMaker 上的 AI 推理。我们将介绍从 AWS Marketplace 为 SageMaker Inference 部署 NVIDIA NIM 微服务的过程。然后,我们将深入介绍 NVIDIA 在 SageMaker JumpStart 上提供的模型,展示如何直接在 JumpStart 界面中访问和部署 Nemotron-4 模型。这将包括分步

使用 SageMaker Inference 中新的缩减至零功能来节省成本

Unlock cost savings with the new scale down to zero feature in SageMaker Inference

今天在 AWS re:Invent 2024 上,我们很高兴地宣布 Amazon SageMaker 推理终端节点的一项新功能:能够将 SageMaker 推理终端节点扩展到零个实例。这项期待已久的功能对于使用云中的 AI 和机器学习 (ML) 推理功能的客户来说是一个改变游戏规则的功能。

为生成式 AI 推理增强自动扩展功能 - 在 SageMaker Inference 中引入容器缓存

Supercharge your auto scaling for generative AI inference – Introducing Container Caching in SageMaker Inference

今天,在 AWS re:Invent 2024 大会上,我们很高兴地宣布 Amazon SageMaker 中推出了新的容器缓存功能,该功能可显著缩短扩展生成式 AI 模型进行推理所需的时间。这项创新让您能够更快地扩展模型,在扩展新模型副本时,延迟可降低高达 56%,在新实例上添加模型副本时,延迟可降低高达 30%。在本文中,我们将探讨 SageMaker 推理的新容器缓存功能,以应对部署和扩展大型语言模型 (LLM) 的挑战。

在 SageMaker Inference 中引入快速模型加载器:加速大型语言模型 (LLM) 的自动扩展 - 第 1 部分

Introducing Fast Model Loader in SageMaker Inference: Accelerate autoscaling for your Large Language Models (LLMs) – part 1

今天在 AWS re:Invent 2024 上,我们很高兴地宣布 Amazon SageMaker Inference 中的一项新功能,它显著减少了使用 LMI 部署和扩展 LLM 进行推理所需的时间:Fast Model Loader。在这篇文章中,我们深入探讨了 Fast Model Loader 的技术细节,探索了它与现有 SageMaker 工作流程的集成,讨论了如何开始使用这项强大的新功能,并分享了客户成功案例。

在 SageMaker Inference 中引入快速模型加载器:加速大型语言模型 (LLM) 的自动扩展 - 第 2 部分

Introducing Fast Model Loader in SageMaker Inference: Accelerate autoscaling for your Large Language Models (LLMs) – Part 2

在本文中,我们提供了在 LLM 部署中实施 Fast Model Loader 的详细实践指南。我们探讨了两种方法:使用 SageMaker Python SDK 进行编程实现,以及使用 Amazon SageMaker Studio UI 获得更直观、更具交互性的体验。无论您是喜欢使用代码的开发人员还是喜欢图形界面的人,您都将学习如何利用这一强大功能来加速您的 LLM 部署。

使用 Chronos-Bolt 和 AutoGluon 进行快速准确的零样本预测

Fast and accurate zero-shot forecasting with Chronos-Bolt and AutoGluon

Amazon SageMaker 客户可以通过 AutoGluon-TimeSeries 和 Amazon SageMaker JumpStart 使用 Chronos 模型。在这篇文章中,我们介绍了 Chronos-Bolt,这是我们最新的预测 FM,已集成到 AutoGluon-TimeSeries 中。

Amazon Finance Automation 如何使用 Amazon Bedrock 构建生成式 AI 问答聊天助手

How Amazon Finance Automation built a generative AI Q&A chat assistant using Amazon Bedrock

Amazon Finance Automation 在 Amazon Bedrock 上开发了一个基于大型语言模型 (LLM) 的问答聊天助手。该解决方案使分析师能够快速检索客户查询的答案,并在同一通信线程内生成快速响应。因此,它大大减少了解决客户查询所需的时间。在这篇文章中,我们分享了 Amazon Finance Automation 如何使用 Amazon Bedrock 构建这个生成式 AI 问答聊天助手。