详细内容或原文请订阅后点击阅览
人工智能聊天机器人令人惊讶的能源足迹
为什么重要:人工智能聊天机器人令人惊讶的能源足迹揭示了人工智能的日常使用如何在全球范围内造成巨大的功耗。
来源:人工智能+人工智能聊天机器人令人惊讶的能源足迹提出了一个许多用户可能忽视的关键问题。每次您在 ChatGPT 等聊天机器人中输入问题时,都会产生隐性成本:能源。看似与人工智能的快速、无缝对话实际上依赖于消耗大量电力的大规模计算基础设施。随着采用率的迅速增长,科学家和政策研究人员发现,这些人工智能交互对环境的影响可能与甚至超过传统云服务和数据中心的能源使用量。本文探讨了人工智能推理的运作方式、其能源使用的驱动因素,以及科技行业如何转向更可持续的人工智能未来。
要点
AI功耗规模
每个聊天机器人交互都依赖于基于大型语言模型 (LLM) 构建的复杂系统。这些模型(例如 OpenAI 的 GPT 系列)运行在高性能服务器和 GPU 上,在训练和推理过程中会消耗大量电力。国际能源署 (IEA) 2023 年的一项研究表明,每天生成数百万个聊天机器人响应会消耗数千兆瓦时的电力,相当于一个中型数据中心的用电量。
训练与推理:能量去向
人工智能模型与传统技术:能源比较
气候研究人员现在在计算全球碳排放时将人工智能操作纳入考虑范围。由于化石燃料仍然在全球能源生产中占主导地位,人工智能的高能源消耗直接导致温室气体排放。
