Using Spectrum fine-tuning to improve FM training efficiency on Amazon SageMaker AI
在本文中,您将了解如何使用 Spectrum 优化资源使用并缩短训练时间而不牺牲质量,以及如何通过 Amazon SageMaker AI 训练作业实施 Spectrum 微调。我们还将讨论 QLoRA 和 Spectrum 微调之间的权衡,表明虽然 QLoRA 资源效率更高,但 Spectrum 总体性能更高。
HyperPod enhances ML infrastructure with security and storage
本博文介绍了 Amazon SageMaker HyperPod 的两项主要增强功能,这些增强功能增强了大规模机器学习基础设施的安全性和存储功能。新功能包括客户管理密钥 (CMK) 支持使用组织控制的加密密钥对 EBS 卷进行加密,以及 Amazon EBS CSI 驱动程序集成,支持对 AI 工作负载中的 Kubernetes 卷进行动态存储管理。
How Amazon Search increased ML training twofold using AWS Batch for Amazon SageMaker Training jobs
在本文中,我们向您展示 Amazon Search 如何利用 AWS Batch 进行 SageMaker 训练作业来优化 GPU 实例利用率。该托管解决方案使我们能够在 P5、P4 等 GPU 加速实例系列上协调机器学习 (ML) 训练工作负载。我们还将提供用例实现的分步演练。
Serverless deployment for your Amazon SageMaker Canvas models
在这篇文章中,我们将介绍如何采用 SageMaker Canvas 中构建的 ML 模型并使用 SageMaker Serverless Inference 进行部署,帮助您快速高效地从模型创建到生产就绪的预测,而无需管理任何基础设施。该解决方案演示了一个完整的工作流程,从将经过训练的模型添加到 SageMaker 模型注册表,到创建无服务器端点配置,再到部署根据需求自动扩展的端点。
Accelerate large-scale AI training with Amazon SageMaker HyperPod training operator
在这篇文章中,我们演示了如何使用 Amazon SageMaker HyperPod 训练操作器部署和管理机器学习训练工作负载,该操作器通过精确恢复和可定制的监控功能增强 Kubernetes 工作负载的训练弹性。 Amazon SageMaker HyperPod 训练运算符通过有效管理跨大型 GPU 集群的分布式训练来帮助加速生成式 AI 模型开发,提供集中训练过程监控、精细过程恢复和挂起作业检测等优势,可将恢复时间从数十分钟缩短到几秒钟。
GE advances on RISE’s dust ingestion, installation testing
需要订阅 Scott Hamilton Arjan Hageman。图片来源:GE 航空航天公司。 2025 年 10 月 16 日,© Leeham News:GE 航空航天公司已开始对其 RISE 开放式风扇发动机进行粉尘吸入测试,这是该公司有史以来最早进行的测试。该公司告诉... 阅读更多GE 在 RISE 的粉尘吸收、安装测试方面取得的进展首先出现在 Leeham News and Analysis 上。