详细内容或原文请订阅后点击阅览
放置在人工智能处理器下方的微型芯片可以将数据中心的能耗降低 50%
高耗电的人工智能芯片可能会浪费比其使用的更多的电力。一家初创公司希望改变这一现状。
来源:ZME科学那些在现代数据中心嗡嗡作响的精美图形处理器在纸面上看起来非常高效。顶级产品可能只需要 700 瓦即可运行大型语言模型。但在现实世界中,一旦电力通过转换、电阻和热量层,同一个芯片可能需要接近 1,700 瓦的功率。
这种隐藏的低效率已经成为人工智能较少被谈论的危机之一。随着数据中心不断膨胀以适应越来越大的模型,为芯片供电所浪费的能源可能会与计算本身所使用的能源相媲美。
邹鹏认为这很荒谬。他相信他有解决办法。
在初创公司 PowerLattice,Zou 和他的团队构建了一些小到可以隐藏在处理器封装下的东西,但又足够雄心勃勃,可以承诺对 AI 硬件如何消耗电力进行戏剧性的重新思考。他们的想法取决于一个简单的原则:在物理允许的情况下将电源转换尽可能靠近处理器。
人工智能的无形能源税
现代数据中心使用来自电网的交流电运行。然而,人工智能芯片只能消化低压直流电——大约一伏。从一种到另一种需要多个转换步骤。
每一步都需要付出代价。
随着电压下降,电流上升以节省电力。高电流必须流过电路板和互连件。电流流到哪里,热量就会随之而来。能量损失与电流的平方成正比,这意味着小的低效率会迅速膨胀。
“这种交换发生在处理器附近,但电流在低电压状态下仍然会传播一段有意义的距离,”加州大学圣地亚哥分校电力电子学研究员 Hanh-Phuc Le 解释道,他与 PowerLattice 没有任何联系。 “离处理器越近,高电流传输的距离就越短,因此我们可以减少功率损耗,”他说。
×
谢谢!还有一件事...
请检查您的收件箱并确认您的订阅。
