今天,我们很高兴向您介绍 SageMaker Studio 的一项新功能:SOCI(Seekable Open Container Initiative)索引。 SOCI 支持容器镜像的延迟加载,即最初只下载镜像的必要部分,而不是整个容器。
在本文中,您将了解 AgentCore 运行时上的双向流以及创建 WebSocket 实现的先决条件。您还将了解如何使用 Strands Agents 为语音代理实现双向流解决方案。
Tracking and managing assets used in AI development with Amazon SageMaker AI
在这篇文章中,我们将探讨帮助组织跟踪和管理模型开发和部署生命周期的新功能和核心概念。我们将向您展示如何配置这些功能来训练具有自动端到端沿袭的模型,从数据集上传和版本控制到模型微调、评估和无缝端点部署。
Track machine learning experiments with MLflow on Amazon SageMaker using Snowflake integration
在这篇文章中,我们演示了如何将 Amazon SageMaker 托管的 MLflow 集成为中央存储库来记录这些实验并提供统一的系统来监控其进度。
Governance by design: The essential guide for successful AI scaling
想象一下:您的企业刚刚部署了第一个生成式 AI 应用程序。初步结果很有希望,但当您计划跨部门扩展时,就会出现关键问题。随着人工智能应用程序的倍增,您将如何实施一致的安全性、防止模型偏差并保持控制?
在这篇文章中,我们将探讨 Tata Power CoE 和 Oneture Technologies 如何使用 AWS 服务实现端到端检查流程的自动化。
Unlocking video understanding with TwelveLabs Marengo on Amazon Bedrock
在这篇文章中,我们将展示 Amazon Bedrock 上提供的 TwelveLabs Marengo 嵌入模型如何通过多模式 AI 增强视频理解。我们将使用 Marengo 模型的嵌入以及 Amazon OpenSearch Serverless 作为矢量数据库来构建视频语义搜索和分析解决方案,其语义搜索功能不仅限于简单的元数据匹配,还可以提供智能内容发现。
Adaptive infrastructure for foundation model training with elastic training on SageMaker HyperPod
Amazon SageMaker HyperPod 现在支持弹性训练,使您的机器学习 (ML) 工作负载能够根据资源可用性自动扩展。在这篇文章中,我们将演示弹性训练如何帮助您最大限度地提高 GPU 利用率、降低成本并通过动态资源适应加速模型开发,同时保持训练质量并最大限度地减少手动干预。
Customize agent workflows with advanced orchestration techniques using Strands Agents
在这篇文章中,我们探讨了使用 Strands Agent 实现的两种强大的编排模式。使用一套通用的旅行规划工具,我们演示了不同的编排策略如何通过不同的推理方法解决同一问题,
在我们的两部分系列的第一部分中,您将学习如何针对生成式 AI 工作负载改进现有的 DevOps 架构并实施 GenAIOps 实践。我们将展示不同生成式人工智能采用级别的实际实施策略,重点关注消费基础模型。
Applying data loading best practices for ML training with Amazon S3 clients
在这篇文章中,我们介绍了用于优化直接从 Amazon S3 通用存储桶读取数据的 ML 训练工作负载吞吐量的实用技术和建议。
Building a voice-driven AWS assistant with Amazon Nova Sonic
在这篇文章中,我们将探讨如何使用 Amazon Nova Sonic 进行语音处理并使用 Strands Agent 进行多代理编排来构建复杂的语音驱动 AWS 操作助手。该解决方案展示了自然语言语音交互如何改变云运营,使 AWS 服务更易于访问且运营更高效。
本文将介绍 Harmonic Security 如何使用 Amazon SageMaker AI、Amazon Bedrock 和 Amazon Nova Pro 来微调 ModernBERT 模型,从而实现低延迟、准确且可扩展的数据泄漏检测。
在这篇文章中,我们将展示 Swisscom 如何实施 Amazon Bedrock AgentCore 来构建和扩展其企业 AI 代理,以实现客户支持和销售运营。作为 AWS 欧洲区域(苏黎世)Amazon Bedrock 的早期采用者,Swisscom 凭借其 Chatbot Builder 系统和各种 AI 计划在企业 AI 实施方面处于领先地位。他们的成功部署包括由 Rasa 提供支持的对话式 AI 和 Amazon SageMaker 上经过微调的法学硕士,以及专为满足瑞士数据保护标准而构建的 Swisscom Swisscom myAI 助手。
Scaling MLflow for enterprise AI: What’s New in SageMaker AI with MLflow
今天,我们宣布推出带有 MLflow 的 Amazon SageMaker AI,现在包含一项无服务器功能,可动态管理人工智能和机器学习 (AI/ML) 开发任务的基础设施配置、扩展和操作。在这篇文章中,我们将探讨这些新功能如何帮助您运行大型 MLflow 工作负载(从生成式 AI 代理到大型语言模型 (LLM) 实验),并使用 SageMaker AI 和 MLflow 提高性能、自动化和安全性。
Amazon Bedrock AgentCore Observability with Langfuse
在这篇文章中,我们解释了如何将 Langfuse 可观测性与 Amazon Bedrock AgentCore 集成,以深入了解 AI 代理的性能、更快地调试问题并优化成本。我们使用部署在 AgentCore Runtime 上的 Strands 代理完成完整的实现,并附有分步代码示例。
Implement automated smoke testing using Amazon Nova Act headless mode
本文展示了如何在 CI/CD 管道中使用 Amazon Nova Act 无头模式实施自动化冒烟测试。我们使用 SauceDemo(一个示例电子商务应用程序)作为演示目标。我们演示如何设置 Amazon Nova Act 以在 CI/CD 环境中实现无头浏览器自动化,并创建验证关键用户工作流程的冒烟测试。然后,我们展示如何实现并行执行以最大限度地提高测试效率,配置 GitLab CI/CD 以在每次部署上自动执行测试,并应用最佳实践来实现可维护和可扩展的测试自动化。
Create AI-powered chat assistants for your enterprise with Amazon Quick Suite
在这篇文章中,我们展示了如何在 Amazon Quick Suite 中构建聊天代理。我们将介绍一个三层框架——身份、指令和知识——将 Quick Suite 聊天代理转变为智能企业 AI 助手。在我们的示例中,我们演示了聊天代理如何指导功能发现、使用企业数据来提供建议,以及根据影响潜力和团队的采用准备情况定制解决方案。