NVIDIA DGX SuperPOD:引领 AI 发展的可扩展基础设施
机构名称:
¥ 3.0

随着深度学习网络和训练数据的复杂性呈指数级增长,人工智能研究人员的计算需求不断增加。过去的训练仅限于一个或几个 GPU,通常是在工作站中进行。如今的训练通常使用数十个、数百个甚至数千个 GPU 来评估和优化不同的模型配置和参数。此外,组织有多个人工智能研究人员,他们都需要同时训练多个模型。如此大规模的系统对人工智能研究人员来说可能很新奇,但这些设备传统上一直是世界上最重要的研究机构和学术界的标志,推动了几乎所有类型的科学研究的创新。

NVIDIA DGX SuperPOD:引领 AI 发展的可扩展基础设施

NVIDIA DGX SuperPOD:引领 AI 发展的可扩展基础设施PDF文件第1页

NVIDIA DGX SuperPOD:引领 AI 发展的可扩展基础设施PDF文件第2页

NVIDIA DGX SuperPOD:引领 AI 发展的可扩展基础设施PDF文件第3页

NVIDIA DGX SuperPOD:引领 AI 发展的可扩展基础设施PDF文件第4页

NVIDIA DGX SuperPOD:引领 AI 发展的可扩展基础设施PDF文件第5页

相关文件推荐

NVIDIA DGX A100 数据表
我们的准则 - NVIDIA
2023 年
¥1.0
基础设施
2024 年
¥1.0
氢基础设施
2024 年
¥2.0
扩展人工智能
2023 年
¥2.0
铝议程:基础设施
2024 年
¥1.0
重视 NVIDIA!
2023 年
¥2.0
NVIDIA AI 企业版
2024 年
¥2.0
基础设施战略
2024 年
¥4.0
能源基础设施:
2024 年
¥1.0
AI 扩展 | Loxone
2022 年
¥1.0
我们的代码 - NVIDIA
2023 年
¥1.0
基础设施标准
2016 年
¥24.0