aws ai基础架构与NVIDIA BLACKWELL:AI

在这篇文章中,我们宣布由NVIDIA Blackwell GPU驱动的Amazon EC2 P6E-GB200 Ultraservers和P6-B200实例的一般可用性,该实例旨在培训和部署最大,最复杂的AI型号。

来源:亚马逊云科技 _机器学习
想象一个系统,可以探索复杂问题的多种方法,借鉴其对大量数据的理解,从科学数据集到源代码到业务文档,以及实时通过可能性进行推理。这种闪电的推理并没有等待。今天在客户的AI生产环境中发生。我们的客户今天正在建立的AI系统的规模 - 杂乱无章的药物发现,企业搜索,软件开发等等 - 确实非常了不起。即将到来还有很多事情。要加快跨越新兴的生成AI开发(例如推理模型和代理AI系统)的创新,我们很高兴宣布NVIDIA GRACK BLACKWERS SUPERCHIPS加速了P6E-GB200 Ultraservers的一般可用性。 P6E-GB200 Ultraservers旨在培训和部署最大,最复杂的AI模型。今年早些时候,我们启动了由NVIDIA Blackwell GPU加速的P6-B200实例,用于多种AI和高性能的计算计算工作负载。在这篇文章中,我们分享了这些强大的计算解决方案如何建立在我们学到的所有知识的基础上,我们为提供安全,可靠的GPU基础设施以大规模的规模提供了一致的客户,从而促进了一致的范围,从而构成一致的范围。 WorkloadSP6E-GB200 Ultraservers代表了我们迄今为止最强大的GPU产品,最高72个NVIDIA BLACKWELL GPU使用第五代NVIDIA NVLINK互连,所有这些都可以用作单个计算单元。与P5EN实例相比,每个Ultraserver都提供大量的360 PETAFLOP,密集的FP8计算和13.4 TB的总高带宽GPU内存(HBM3E),是计算的20倍以上,是单个NVLINK领域中的记忆的20倍以上。 P6E-GB200 Ultraservers支持第四代弹性织物适配器(EFAV4)网络的28.8 TBP骨料带宽。P6-B200实例是广泛的AI使用情况的通用选项。每个Insta