人工智能聊天机器人:排放量上升,事实下降

为什么重要:人工智能聊天机器人:排放量上升,事实下降研究了人工智能工具带来的不断上升的碳成本和气候错误信息。

来源:人工智能+

人工智能聊天机器人:排放量上升,事实下降

人工智能聊天机器人:排放量上升,事实下降探讨了人们对 GPT-4、Gemini 和 Claude 等人工智能系统的环境足迹和事实准确性日益担忧的问题。随着这些强大的模型重塑通信、研究和决策,它们也因其不断增长的电力需求以及与科学共识(尤其是在气候变化方面)不一致的一致性而受到密切关注。从碳密集型训练阶段到有关全球变暖的误导性内容的传播,人工智能面临着双重挑战。本文深入探讨了气候科学家和人工智能工程师的有证据支持的见解,以解决人工智能部署中排放和错误信息的双重问题。

要点

  • 训练和运行人工智能聊天机器人需要大量能源,这会显着增加温室气体排放。
  • 一些聊天机器人提出了有关气候变化和化石燃料的不准确或误导性陈述。
  • 领先的学术研究揭示了人工智能的反应与关于全球变暖的科学共识之间的不一致。
  • 需要采取紧急措施来确保节能的人工智能开发和真实的输出。
  • 大型语言模型的能源消耗

    大型语言模型 (LLM),例如 GPT-4、Gemini 和 Claude,需要大量的计算资源。大部分能量消耗在两个关键阶段:训练和推理。训练是指模型的初始计算学习。推理涉及使用模型生成用户响应。

    马萨诸塞大学阿默斯特分校的研究人员估计,训练一个大型人工智能模型可以排放超过 284,000 公斤的二氧化碳,这是美国汽车平均寿命排放量的五倍。随着需求的增长,环境负担也随之增加。

    比较不同聊天机器人模型的能源使用

    以下是三种领先人工智能模型的能耗估算的比较概述:

    当人工智能传播气候错误信息时

    为什么对齐很重要

    视频