人工智能数据中心采用液体冷却

施耐德电气和 Nvidia 正在致力于此。

来源:OSP网站大数据新闻

施耐德电气和 Nvidia 继续在数据中心工程基础设施领域开展合作。据路透社报道,他们的联合工作旨在创建支持人工智能工作负载的数据中心冷却系统。

施耐德电气解决方案专为使用英伟达旗舰服务器和高性能人工智能芯片的数据中心而设计,该芯片将于明年初推出。

与 Nvidia 合作,针对高密度 AI 计算集群开发了液冷参考设计,其中机架功耗高达 132 kW。

所提出的系统能够将基于 Blackwell 架构的 B200 芯片复合体(例如 GB200 NVL72 服务器机柜)维持在指定的温度条件下。它包括冷却液分配单元、直接切屑冷却单元和许多其他设备。该项目包括设计文件和电气图。

施耐德电气表示,用于设计和优化数据中心冷却系统的软件工具允许根据 Nvidia 设备的数量及其消耗的能源来扩展项目。提供经过验证的架构应该可以使液体冷却问题更容易解决。

IDC 指出人工智能在包括数据中心在内的许多领域的变革潜力,以及“施耐德电气和 Nvidia 之间的合作对于可持续数字未来的至关重要”。

据 IDC 预测,到 2027 年,数据中心用电量可能达到全球水平的 2.5%。