How Amazon Search increased ML training twofold using AWS Batch for Amazon SageMaker Training jobs
在本文中,我们向您展示 Amazon Search 如何利用 AWS Batch 进行 SageMaker 训练作业来优化 GPU 实例利用率。该托管解决方案使我们能够在 P5、P4 等 GPU 加速实例系列上协调机器学习 (ML) 训练工作负载。我们还将提供用例实现的分步演练。
Serverless deployment for your Amazon SageMaker Canvas models
在这篇文章中,我们将介绍如何采用 SageMaker Canvas 中构建的 ML 模型并使用 SageMaker Serverless Inference 进行部署,帮助您快速高效地从模型创建到生产就绪的预测,而无需管理任何基础设施。该解决方案演示了一个完整的工作流程,从将经过训练的模型添加到 SageMaker 模型注册表,到创建无服务器端点配置,再到部署根据需求自动扩展的端点。
Accelerate large-scale AI training with Amazon SageMaker HyperPod training operator
在这篇文章中,我们演示了如何使用 Amazon SageMaker HyperPod 训练操作器部署和管理机器学习训练工作负载,该操作器通过精确恢复和可定制的监控功能增强 Kubernetes 工作负载的训练弹性。 Amazon SageMaker HyperPod 训练运算符通过有效管理跨大型 GPU 集群的分布式训练来帮助加速生成式 AI 模型开发,提供集中训练过程监控、精细过程恢复和挂起作业检测等优势,可将恢复时间从数十分钟缩短到几秒钟。
Splash Music transforms music generation using AWS Trainium and Amazon SageMaker HyperPod
在这篇文章中,我们展示了 Splash Music 如何通过在 Amazon SageMaker HyperPod 上结合使用其先进的 HummingLM 模型和 AWS Trainium,为 AI 驱动的音乐创作设定新标准。作为 2024 年 AWS Generative AI Accelerator 中入选的初创公司,Splash Music 与 AWS Startups 和 AWS GenAIIC 密切合作,以快速跟踪创新并加速其音乐生成 FM 开发生命周期。
Scala development in Amazon SageMaker Studio with Almond kernel
本文提供了有关将 Almond 内核集成到 SageMaker Studio 的综合指南,为平台内的 Scala 开发提供了解决方案。
Use Amazon SageMaker HyperPod and Anyscale for next-generation distributed computing
在这篇文章中,我们演示了如何将 Amazon SageMaker HyperPod 与 Anyscale 平台集成,以解决构建和部署大规模 AI 模型时的关键基础设施挑战。该组合解决方案通过高性能硬件、持续监控以及与领先的 AI 计算引擎 Ray 的无缝集成,为分布式 AI 工作负载提供强大的基础设施,使组织能够缩短上市时间并降低总体拥有成本。