Nvidia 提出了一种有前景的 AI 数据中心架构

Nvidia 相信,“AI 工厂”将解决处理 AI 负载的许多问题。

来源:OSP网站大数据新闻

在 Nvidia GPU 技术大会 2026 上,他们提出了一种很有前途的 AI 数据中心架构,可以降低生成代币的成本,代币成为描述数据单元的“AI 货币”,并可以估计在训练模型和形成逻辑结论的过程中处理它们的成本。

根据 Nvidia 的说法,数据中心将变成人工智能的巨型 GPU。这些将是基于处理器、交换机、网络、存储系统的集成加速人工智能管道,称为“人工智能工厂”,其架构包含物理基础设施、芯片、软件和系统、人工智能模型和应用程序五个层次。

该项目基于 GTC 会议上宣布的 Rubin GPU 和 Vera CPU。 Nvidia 还推出了一款新的推理芯片 Groq LPU,其内部 SRAM 内存带宽明显高于 GPU,并且专为低延迟令牌生成而设计。

Nvidia 将 NVLink 互连速度提高了一倍,达到 260 TB/s,并推出了 BlueField-4 STX 机架式平台,该平台将 GPU 内存扩展到整个系统集群,使用“快速”网络和外部存储系统处理 AI 的关键上下文数据。 AI Context Memory带来​​了上下文和KV缓存,它存储了先前令牌的计算出的Keys和Values矩阵,更接近GPU,显着减少了延迟并提高了AI代理的效率。

BlueField-4 STX 和在同一会议上宣布的 Vera Rubin NVL72 超级计算机组成了系统 AI 解决方案,其中 NVL72 充当基于 Spectrum-X 以太网平台的具有高速网络的可扩展计算机,BlueField-4 STX 充当机架上下文内存平台。 Nvidia 宣布与台积电 (TSMC) 合作,开始生产将光子学集成到芯片中的 Spectrum‑X 开关(共封装光学器件,CPO)。