详细内容或原文请订阅后点击阅览
降低 AI 模型能耗的新工具
林肯实验室正在积极推进减少人工智能模型能耗的努力。他们的目标包括提高能源使用的透明度和提高人工智能模型训练的效率。
来源:Qudata降低 AI 模型能耗的新工具
在人们对 AI 能力的热情高涨中,林肯实验室致力于降低 AI 模型的能耗。这一追求旨在促进高效的训练方法、减少电力使用并引入能源消耗透明度。
降低 AI 模型的能耗航空业已开始在网上搜索时提供航班的碳排放量估计,鼓励用户考虑环境影响。然而,这种透明度尚未渗透到计算领域,而 AI 模型的能耗超过了整个航空业。以 ChatGPT 为例,AI 模型的规模不断扩大,预示着 AI 正朝着更大规模的方向发展,预示着到 2030 年数据中心将消耗全球高达 21% 的电力。
麻省理工学院林肯实验室超级计算中心 (LLSC) 在降低能源使用方面取得了创新进展。他们探索了各种方法,从功率上限硬件到提前终止 AI 训练,而不会显著影响模型性能。他们的目标不仅是提高能源效率,而且还要推动该领域的透明度。
LLSC 研究的一个途径是关注图形处理单元 (GPU) 的功率限制。通过研究功率上限的影响,他们注意到能耗降低了 12-15%,同时将任务完成时间延长了 3%。在他们的系统中实施这种干预措施可使 GPU 运行更凉爽,提高稳定性和使用寿命,同时减少冷却系统的压力。
此外,LLSC 还设计了一款软件,将功率上限容量集成到广泛使用的调度系统 Slurm 中,使用户能够轻松地在整个系统或每个作业的基础上设置限制。
此外,LLSC 与东北大学合作设计了一个优化器,以选择最节能的硬件组合进行模型推理,从而可能将能耗降低 10-20%。