亚马逊云科技 _机器学习领域信息情报检索

AWS的以下部分介绍了机器学习的文章。Amazon Web Services(AWS)是亚马逊公司内部一个充满活力且不断发展壮大的业务部门。订阅我们,获取关于Amazon Web Services机器学习的文章。

推出 Amazon SageMaker Studio 的 SOCI 索引:AI/ML 工作负载的容器启动时间更快

Introducing SOCI indexing for Amazon SageMaker Studio: Faster container startup times for AI/ML workloads

今天,我们很高兴向您介绍 SageMaker Studio 的一项新功能:SOCI(Seekable Open Container Initiative)索引。 SOCI 支持容器镜像的延迟加载,即最初只下载镜像的必要部分,而不是整个容器。

Amazon Bedrock AgentCore Runtime 现已提供用于实时代理交互的双向流式传输

Bi-directional streaming for real-time agent interactions now available in Amazon Bedrock AgentCore Runtime

在本文中,您将了解 AgentCore 运行时上的双向流以及创建 WebSocket 实现的先决条件。您还将了解如何使用 Strands Agents 为语音代理实现双向流解决方案。

使用 Amazon SageMaker AI 跟踪和管理 AI 开发中使用的资产

Tracking and managing assets used in AI development with Amazon SageMaker AI

在这篇文章中,我们将探讨帮助组织跟踪和管理模型开发和部署生命周期的新功能和核心概念。我们将向您展示如何配置这些功能来训练具有自动端到端沿袭的模型,从数据集上传和版本控制到模型微调、评估和无缝端点部署。

使用 Snowflake 集成在 Amazon SageMaker 上通过 MLflow 跟踪机器学习实验

Track machine learning experiments with MLflow on Amazon SageMaker using Snowflake integration

在这篇文章中,我们演示了如何将 Amazon SageMaker 托管的 MLflow 集成为中央存储库来记录这些实验并提供统一的系统来监控其进度。

设计治理:成功扩展 AI 的基本指南

Governance by design: The essential guide for successful AI scaling

想象一下:您的企业刚刚部署了第一个生成式 AI 应用程序。初步结果很有希望,但当您计划跨部门扩展时,就会出现关键问题。随着人工智能应用程序的倍增,您将如何实施一致的安全性、防止模型偏差并保持控制?

Tata Power CoE 如何使用 Amazon SageMaker AI 和 Amazon Bedrock 构建可扩展的 AI 驱动的太阳能电池板检查解决方案

How Tata Power CoE built a scalable AI-powered solar panel inspection solution with Amazon SageMaker AI and Amazon Bedrock

在这篇文章中,我们将探讨 Tata Power CoE 和 Oneture Technologies 如何使用 AWS 服务实现端到端检查流程的自动化。

利用 Amazon Bedrock 上的 TwelveLabs Marengo 解锁视频理解

Unlocking video understanding with TwelveLabs Marengo on Amazon Bedrock

在这篇文章中,我们将展示 Amazon Bedrock 上提供的 TwelveLabs Marengo 嵌入模型如何通过多模式 AI 增强视频理解。我们将使用 Marengo 模型的嵌入以及 Amazon OpenSearch Serverless 作为矢量数据库来构建视频语义搜索和分析解决方案,其语义搜索功能不仅限于简单的元数据匹配,还可以提供智能内容发现。

用于在 SageMaker HyperPod 上进行弹性训练的基础模型训练的自适应基础设施

Adaptive infrastructure for foundation model training with elastic training on SageMaker HyperPod

Amazon SageMaker HyperPod 现在支持弹性训练,使您的机器学习 (ML) 工作负载能够根据资源可用性自动扩展。在这篇文章中,我们将演示弹性训练如何帮助您最大限度地提高 GPU 利用率、降低成本并通过动态资源适应加速模型开发,同时保持训练质量并最大限度地减少手动干预。

使用 Strands Agent 通过高级编排技术自定义代理工作流程

Customize agent workflows with advanced orchestration techniques using Strands Agents

在这篇文章中,我们探讨了使用 Strands Agent 实现的两种强大的编排模式。使用一套通用的旅行规划工具,我们演示了不同的编排策略如何通过不同的推理方法解决同一问题,

使用 Amazon Bedrock 实施生成式 AI 工作负载并扩展到数百个用例 – 第 1 部分:GenAIOps

Operationalize generative AI workloads and scale to hundreds of use cases with Amazon Bedrock – Part 1: GenAIOps

在我们的两部分系列的第一部分中,您将学习如何针对生成式 AI 工作负载改进现有的 DevOps 架构并实施 GenAIOps 实践。我们将展示不同生成式人工智能采用级别的实际实施策略,重点关注消费基础模型。

将数据加载最佳实践应用于 Amazon S3 客户端的 ML 训练

Applying data loading best practices for ML training with Amazon S3 clients

在这篇文章中,我们介绍了用于优化直接从 Amazon S3 通用存储桶读取数据的 ML 训练工作负载吞吐量的实用技术和建议。

使用 Amazon Nova Sonic 构建语音驱动的 AWS 助手

Building a voice-driven AWS assistant with Amazon Nova Sonic

在这篇文章中,我们将探讨如何使用 Amazon Nova Sonic 进行语音处理并使用 Strands Agent 进行多代理编排来构建复杂的语音驱动 AWS 操作助手。该解决方案展示了自然语言语音交互如何改变云运营,使 AWS 服务更易于访问且运营更高效。

Harmonic Security 如何使用 Amazon SageMaker、Amazon Bedrock 和 Amazon Nova Pro 通过低延迟微调模型改进其数据泄漏检测系统

How Harmonic Security improved their data-leakage detection system with low-latency fine-tuned models using Amazon SageMaker, Amazon Bedrock, and Amazon Nova Pro

本文将介绍 Harmonic Security 如何使用 Amazon SageMaker AI、Amazon Bedrock 和 Amazon Nova Pro 来微调 ModernBERT 模型,从而实现低延迟、准确且可扩展的数据泄漏检测。

Swisscom 如何使用 Amazon Bedrock AgentCore 构建企业代理 AI 以进行客户支持和销售

How Swisscom builds enterprise agentic AI for customer support and sales using Amazon Bedrock AgentCore

在这篇文章中,我们将展示 Swisscom 如何实施 Amazon Bedrock AgentCore 来构建和扩展其企业 AI 代理,以实现客户支持和销售运营。作为 AWS 欧洲区域(苏黎世)Amazon Bedrock 的早期采用者,Swisscom 凭借其 Chatbot Builder 系统和各种 AI 计划在企业 AI 实施方面处于领先地位。他们的成功部署包括由 Rasa 提供支持的对​​话式 AI 和 Amazon SageMaker 上经过微调的法学硕士,以及专为满足瑞士数据保护标准而构建的 Swisscom Swisscom myAI 助手。

为企业 AI 扩展 MLflow:SageMaker AI 与 MLflow 的新增功能

Scaling MLflow for enterprise AI: What’s New in SageMaker AI with MLflow

今天,我们宣布推出带有 MLflow 的 Amazon SageMaker AI,现在包含一项无服务器功能,可动态管理人工智能和机器学习 (AI/ML) 开发任务的基础设施配置、扩展和操作。在这篇文章中,我们将探讨这些新功能如何帮助您运行大型 MLflow 工作负载(从生成式 AI 代理到大型语言模型 (LLM) 实验),并使用 SageMaker AI 和 MLflow 提高性能、自动化和安全性。

Amazon Bedrock AgentCore 与 Langfuse 的可观测性

Amazon Bedrock AgentCore Observability with Langfuse

在这篇文章中,我们解释了如何将 Langfuse 可观测性与 Amazon Bedrock AgentCore 集成,以深入了解 AI 代理的性能、更快地调试问题并优化成本。我们使用部署在 AgentCore Runtime 上的 Strands 代理完成完整的实现,并附有分步代码示例。

使用 Amazon Nova Act 无头模式实施自动化烟雾测试

Implement automated smoke testing using Amazon Nova Act headless mode

本文展示了如何在 CI/CD 管道中使用 Amazon Nova Act 无头模式实施自动化冒烟测试。我们使用 SauceDemo(一个示例电子商务应用程序)作为演示目标。我们演示如何设置 Amazon Nova Act 以在 CI/CD 环境中实现无头浏览器自动化,并创建验证关键用户工作流程的冒烟测试。然后,我们展示如何实现并行执行以最大限度地提高测试效率,配置 GitLab CI/CD 以在每次部署上自动执行测试,并应用最佳实践来实现可维护和可扩展的测试自动化。

使用 Amazon Quick Suite 为您的企业创建人工智能驱动的聊天助手

Create AI-powered chat assistants for your enterprise with Amazon Quick Suite

在这篇文章中,我们展示了如何在 Amazon Quick Suite 中构建聊天代理。我们将介绍一个三层框架——身份、指令和知识——将 Quick Suite 聊天代理转变为智能企业 AI 助手。在我们的示例中,我们演示了聊天代理如何指导功能发现、使用企业数据来提供建议,以及根据影响潜力和团队的采用准备情况定制解决方案。