详细内容或原文请订阅后点击阅览
计算能力不再是人工智能的瓶颈——而是能源生产
几十年来,人工智能一直受到缓慢、昂贵的计算机的阻碍。如今,问题变得更简单,但更难解决:随着人工智能渗透到日常生活中,寻找足够可靠的电力来维持数据中心的运行。
来源:LiveScience在 20 世纪的大部分时间里,人工智能 (AI) 举步维艰,并不是因为研究人员缺乏雄心,而是因为为其提供动力的硬件不够强大。早期的人工智能系统在处理速度和内存方面遇到了严格的限制,随着进展停滞和资金枯竭,导致了反复的“人工智能冬天”。
这个问题现在基本上已经消失了。如今,人工智能模型在大型数据中心的专用芯片上进行训练,并且可以在几周而不是几年内扩展规模。计算曾经是主要瓶颈,现在可以用足够的钱购买。随着时间的推移,Nvidia 或 AMD 等公司也在大规模生产更强大的图形处理单元 (GPU),这些组件通常用于游戏或可视化,但也非常适合处理人工智能计算。
那么,除了这些模型核心的基本架构之外,是什么阻碍了人工智能变得更加先进呢?新的限制本质上更加物理化,而且更难解决。这是电。
为什么人工智能的能源需求正在爆炸式增长
现代人工智能模型不会只训练一次然后就停止。它们一直在运行,为聊天机器人、搜索工具、图像生成器和更多自主代理等提供动力。这一变化使得AI成为持续、大规模的电力用户。
巴塞罗那 IESE 商学院人工智能与未来管理计划学术总监 Sampsa Samila 表示,问题并不是绝对缺乏活力。 “短缺的不是能源的整体供应,而是在正确的地点和正确的时间拥有可靠、稳定的产能,”他告诉《生活科学》。
将世界上最迷人的发现直接发送到您的收件箱。
为更慢的世界构建的网格
电网是为逐渐增长而设计的,而不是为几乎一夜之间出现的城市规模的负荷而设计的。
“当许多城市规模的负荷来自同一个当地电网时,扩大电力供应变得更加困难,”Förderer 说。
