详细内容或原文请订阅后点击阅览
液体冷却正在成为数据中心的标准技术
现代计算产生传统空气系统无法处理的热负荷。
来源:OSP网站大数据新闻AI、ML和高性能计算技术导致数据中心IT设备密度急剧增加,产生的热负荷比传统服务器系统高出许多倍。
在 20 世纪 80 年代,机架功耗为 2–3 kW,到 2000 年代增加到 5–8 kW。 GPU 彻底改变了一切。 Nvidia A100、H100和B200芯片功耗分别为400、700和1000 W,GB200 NVL72机架功耗为120-130 kW。升级风道、提高风扇转速并不能解决散热问题。液体冷却不再是一种选择,而是成为一项必要技术。
在不完全更换设备的情况下切换到液体冷却的最常见方法是通过与处理器表面接触的微通道冷却板(Direct-to-chip,DTC)直接向芯片供应冷却剂。冷却剂将热量传递到二次回路,使机架能够以超过 100 kW 的功耗运行。 Nvidia在GB200计算节点中使用了这项技术。
据 CES 2026 报道,Nvidia 的 Vera Rubin 服务器平台能够在 45°C 的冷却剂温度下运行,足以利用环境空气通过热交换器散热。这消除了冷却器的使用,冷却器是液冷数据中心最大的能源消耗者之一。
单相浸没式冷却要求服务器完全浸入介电液槽中,几乎 100% 消除 IT 设备的热量。液体在热交换器中循环,保证功耗大于100kW的机架散热均匀。采用这种冷却方式的数据中心的能效系数 (PUE) 为 1.02 至 1.10。
