用于训练人工智能的高达 30% 的电力被浪费:以下是如何解决这个问题

密歇根大学的一项新研究表明,一种更省力的训练大型语言模型的方法,例如 GPT 系列,可以在相同的时间内完成,但能耗却可降低 30%。

来源:密歇根大学

更智能地使用处理器速度可以节省能源,而不会影响训练速度和性能

密歇根学术计算中心 (MACC) 是由密歇根大学运营的 2 兆瓦数据中心。它存储来自各个部门的数据和用于 AI 研究的高性能计算。图片来源:Jae-Won Chung,密歇根大学 SymbioticLab
密歇根学术计算中心 (MACC) 是由密歇根大学运营的 2 兆瓦数据中心。它存储来自各个部门的数据和用于 AI 研究的高性能计算。图片来源:Jae-Won Chung,密歇根大学 SymbioticLab

根据密歇根大学的一项新研究,一种更不浪费的训练大型语言模型(例如 GPT 系列)的方法可以在相同的时间内完成,并且能耗降低高达 30%。

根据富国银行对人工智能电力需求的预测,这种方法可以节省足够的能源,为 2026 年的 110 万美国家庭供电。它还可以削弱国际货币基金组织的预测,即到 2027 年,数据中心可能占全球碳排放量的 1.2%——以及伴随能源使用而来的用水需求。

110 万美国家庭 人工智能电力需求 到 2027 年,占全球碳排放量的 1.2% 用水需求

一些专家表示,这些成本可能会被环境效益所抵消。他们认为,人工智能可以通过找到优化供应链和电网、管理我们的能源需求和改进气候变化研究的方法,成为应对气候变化的“游戏规则改变者”。尽管如此,这并不能成为浪费能源的借口,用于训练人工智能的部分电力对训练时间和模型准确性没有任何影响。

应对气候变化的“游戏规则改变者”

“为什么要在没有意义的情况下花钱?” 密歇根大学计算机科学与工程副教授、第 30 届操作系统原理研讨会上发表的研究的通讯作者 Mosharaf Chowdhury 说。

Mosharaf Chowdhury 第 30 届操作系统原理研讨会 Jae-Won Chung 珀尔修斯 宙斯