HyperPod关键词检索结果

使用 Amazon SageMaker HyperPod 和 Anyscale 实现下一代分布式计算

Use Amazon SageMaker HyperPod and Anyscale for next-generation distributed computing

在这篇文章中,我们演示了如何将 Amazon SageMaker HyperPod 与 Anyscale 平台集成,以解决构建和部署大规模 AI 模型时的关键基础设施挑战。该组合解决方案通过高性能硬件、持续监控以及与领先的 AI 计算引擎 Ray 的无缝集成,为分布式 AI 工作负载提供强大的基础设施,使组织能够缩短上市时间并降低总体拥有成本。

使用新的HyperPod CLI和SDK

Train and deploy models on Amazon SageMaker HyperPod using the new HyperPod CLI and SDK

在这篇文章中,我们演示了如何使用新的Amazon Sagemaker HyperPod CLI和SDK来简化通过使用完全碎片数据并行的分布式培训(FSDP)(FSDP)和模型部署进行推理的分布式培训训练和部署大型AI模型的过程。这些工具通过直接命令提供了简化的工作流程,以实现常见任务,同时通过SDK为更复杂的要求提供灵活的开发选项,以及全面的可观察性功能和准备生产的部署功能。

宣布Amazon Sagemaker HyperPod的新群集创建体验

Announcing the new cluster creation experience for Amazon SageMaker HyperPod

借助新的群集创建体验,您可以单击一键创建SageMaker HyperPod群集,包括所需的先决条件AWS资源,并自动使用规定默认值。在这篇文章中,我们探索了亚马逊萨吉式制造商Hyperpod的新集群创建体验。

Amazon Sagemaker HyperPod增强了具有可伸缩性和可定制性

Amazon SageMaker HyperPod enhances ML infrastructure with scalability and customizability

在这篇文章中,我们在SageMaker Hyperpod中介绍了三个功能,可提高ML基础架构的可扩展性和可定制性。连续供应提供灵活的资源供应,以帮助您更快地开始培训和部署模型,并更有效地管理群集。使用自定义AMIS,您可以将ML环境与组织安全标准和软件要求保持一致。

使用Amazon Sagemaker HyperPod食谱自定义DeepSeek-R1 671b型号 - 第2部分

Customize DeepSeek-R1 671b model using Amazon SageMaker HyperPod recipes – Part 2

在这篇文章中,我们使用食谱来微调原始的DeepSeek-R1 671b参数模型。我们通过使用Sagemaker培训工作和Sagemaker Hyperpod的逐步实施这些食谱来证明这一点。

使用 AWS Trainium 在 SageMaker HyperPod 上对 Llama 3 进行 PEFT 微调 ​​

PEFT fine tuning of Llama 3 on SageMaker HyperPod with AWS Trainium

在这篇博文中,我们展示了如何使用 AWS Trainium 上的 PEFT 和 SageMaker HyperPod 对 Meta Llama 3 模型进行高效的监督微调。我们使用 HuggingFace 的 Optimum-Neuron 软件开发工具包 (SDK) 将 LoRA 应用于微调作业,并使用 SageMaker HyperPod 作为主要计算集群在 Trainium 上执行分布式训练。使用 LoRA 监督微调 Meta Llama 3 模型,您可以进一步将微调模型的成本降低高达 50%,并将训练时间缩短 70%。

Fastweb 如何使用 Amazon SageMaker HyperPod 对 Mistral 模型进行微调,作为构建意大利语大型语言模型的第一步

How Fastweb fine-tuned the Mistral model using Amazon SageMaker HyperPod as a first step to build an Italian large language model

Fastweb 是意大利领先的电信运营商之一,很早就认识到了 AI 技术的巨大潜力,并于 2019 年开始在该领域进行投资。在本文中,我们将探讨 Fastweb 如何利用尖端的 AI 和 ML 服务踏上他们的 LLM 之旅,克服挑战并在此过程中解锁新机遇。

在 SageMaker HyperPod 中实现登录节点负载平衡以增强多用户体验

Implementing login node load balancing in SageMaker HyperPod for enhanced multi-user experience

在本文中,我们探讨了在基于 Slurm 的 HyperPod 集群中跨登录节点实现负载平衡的解决方案。通过在所有可用节点上均匀分布用户活动,这种方法为所有用户提供了更一致的性能、更好的资源利用率和更流畅的体验。我们将指导您完成设置过程,并提供在 HyperPod 集群中实现有效负载平衡的实用步骤。

使用 Amazon SageMaker HyperPod 训练计划加快集群采购时间

Speed up your cluster procurement time with Amazon SageMaker HyperPod training plans

在本文中,我们将演示如何使用 Amazon SageMaker HyperPod 训练计划来缩短训练集群采购等待时间。我们将逐步指导您如何使用 (AWS CLI) 或 AWS 管理控制台查找、查看和创建适合您特定计算和时间线需求的最佳训练计划。我们将进一步指导您使用训练计划提交 SageMaker 训练作业或创建 SageMaker HyperPod 集群。

使用 Amazon SageMaker Studio 和 Amazon SageMaker HyperPod 扩展 ML 工作流

Scale ML workflows with Amazon SageMaker Studio and Amazon SageMaker HyperPod

Amazon SageMaker Studio 和 Amazon SageMaker HyperPod 的集成提供了一种简化的解决方案,为数据科学家和 ML 工程师提供了一个全面的环境,支持从开发到大规模部署的整个 ML 生命周期。在这篇文章中,我们将引导您完成使用 SageMaker Studio 和 SageMaker HyperPod 扩展 ML 工作负载的过程。

在 Amazon SageMaker HyperPod 中引入 Amazon EKS 支持

Introducing Amazon EKS support in Amazon SageMaker HyperPod

这篇文章专为 Kubernetes 集群管理员和 ML 科学家设计,概述了 SageMaker HyperPod 引入的关键功能,以促进在 EKS 集群上进行大规模模型训练。

使用Amazon Sagemaker Hyperpod任务治理

Schedule topology-aware workloads using Amazon SageMaker HyperPod task governance

在这篇文章中,我们通过提交代表层次网络信息的作业来介绍使用SageMaker HyperPod任务治理的拓扑感知调度。我们提供有关如何使用SageMaker HyperPod任务治理来优化您的工作效率的详细信息。

在Amazon Sagemaker Hyperpod

Accelerate your model training with managed tiered checkpointing on Amazon SageMaker HyperPod

AWS宣布在亚马逊Sagemaker Hyperpod中宣布了托管分层的检查点,这是一种专门建立的基础架构,可扩展和加速成千上万个AI加速器的生成AI模型开发。托管分层检查点使用CPU内存进行高性能检查点存储,并在相邻计算节点上自动数据复制,以增强可靠性。在这篇文章中,我们深入研究了这些概念,并了解如何使用托管分层检查点功能。

使用高地形任务治理量最大化高地形群集利用率细粒度配额分配

Maximize HyperPod Cluster utilization with HyperPod task governance fine-grained quota allocation

我们很高兴地宣布高元素和内存配额分配的一般可用性,并宣布高架任务治理。借助此功能,客户可以优化Amazon弹性Kubernetes服务(Amazon EKS)上的Amazon Sagemaker HyperPod群集利用,分发公平用法,并支持不同团队或项目之间的有效资源分配。有关更多信息,请参见HyperPod Task Task Ponsectance […]

在Amazon Sagemaker Hyperpod上引入自动缩放

Introducing auto scaling on Amazon SageMaker HyperPod

在这篇文章中,我们宣布,亚马逊萨吉式超级平台现在支持karpenter的托管节点自动扩展,从而使SageMaker HyperPod簇的有效缩放能够满足推理和培训需求。我们深入研究Karpenter的好处,并提供有关在Sagemaker HyperPod EKS群集中启用和配置Karpenter的详细信息。

使用Amazon Sagemaker Hyperpod食谱进行微调Openai GPT-oss型号

Fine-tune OpenAI GPT-OSS models using Amazon SageMaker HyperPod recipes

这篇文章是GPT-oss系列的第二部分,专注于Amazon Sagemaker AI的模型定制。在第1部分中,我们使用带有Sagemaker培训工作的开源拥抱面部库进行了微调的GPT-oss模型,该培训工作支持分布式的多GPU和多节点配置,因此您可以按需旋转高性能群集。在这篇文章中,[…]

用Amazon Sagemaker Hyperpod支持P6E-GB200 Ultraservers

Train and deploy AI models at trillion-parameter scale with Amazon SageMaker HyperPod support for P6e-GB200 UltraServers

在这篇文章中,我们回顾了P6E-GB200 Ultraservers的技术规格,讨论其性能优势,并突出关键用例。然后,我们走过如何通过灵活的培训计划购买超声处理能力,并开始使用带有Sagemaker Hyperpod的Ultraservers。

Amazon Sagemaker上的高级微调方法AI

Advanced fine-tuning methods on Amazon SageMaker AI

在AWS上微调ML模型时,您可以为您的特定需求选择合适的工具。 AWS为数据科学家,ML工程师和业务用户提供了一系列全面的工具,以实现其ML目标。 AWS建立了支持各种ML复杂性的解决方案,从简单的Sagemaker培训工作进行FM微调到萨吉马制造商Hyperpod的力量进行尖端研究。我们邀请您探索这些选项,从适合您当前需求的内容开始,并随着这些需求的变化而发展您的方法。