人工智能聊天机器人令人惊讶的能源足迹

为什么重要:人工智能聊天机器人令人惊讶的能源足迹揭示了人工智能的日常使用如何在全球范围内造成巨大的功耗。

来源:人工智能+

人工智能聊天机器人令人惊讶的能源足迹提出了一个许多用户可能忽视的关键问题。每次您在 ChatGPT 等聊天机器人中输入问题时,都会产生隐性成本:能源。看似与人工智能的快速、无缝对话实际上依赖于消耗大量电力的大规模计算基础设施。随着采用率的迅速增长,科学家和政策研究人员发现,这些人工智能交互对环境的影响可能与甚至超过传统云服务和数据中心的能源使用量。本文探讨了人工智能推理的运作方式、其能源使用的驱动因素,以及科技行业如何转向更可持续的人工智能未来。

要点

  • 与常规网络搜索相比,人工智能聊天机器人查询每次交互消耗的能量要多得多。
  • 大部分持续的能源使用来自推理(使用训练后的模型),而不仅仅是来自训练。
  • 聊天机器人的广泛使用可能会导致能源需求与小国家或国家数据系统相当。
  • 人们正在探索技术进步和基础设施变革,以降低人工智能的碳和能源成本。
  • AI功耗规模

    每个聊天机器人交互都依赖于基于大型语言模型 (LLM) 构建的复杂系统。这些模型(例如 OpenAI 的 GPT 系列)运行在高性能服务器和 GPU 上,在训练和推理过程中会消耗大量电力。国际能源署 (IEA) 2023 年的一项研究表明,每天生成数百万个聊天机器人响应会消耗数千兆瓦时的电力,相当于一个中型数据中心的用电量。

    训练与推理:能量去向

    人工智能模型与传统技术:能源比较

    气候研究人员现在在计算全球碳排放时将人工智能操作纳入考虑范围。由于化石燃料仍然在全球能源生产中占主导地位,人工智能的高能源消耗直接导致温室气体排放。