关于气候变化的错误信息是解决对人类最严重威胁之一的关键障碍。本文涉及有关气候信息的大语言模型(LLM)中的事实准确性。使用True/False标记的问答数据来对与气候相关的索赔进行细胞和评估LLMS,我们比较开源模型,从而使其生成真实的回复的能力与气候变化问题。我们介绍了被虚假气候信息中毒的模型的可检测性,发现这种中毒可能不会影响模型反应的准确性。此外,我们比较了未经学习算法,微调和检索增强的一代(RAG)的有效性,以实现气候变化主题的实际基础LLM。我们的评估表明,尽管以前的发现表明在隐私环境中表明其效率低下,但学习算法对于细微的概念可能是有效的。这些见解旨在指导开发更真实的可靠LLM,并强调需要进行额外工作以确保LLMS免受误导性攻击的需求。1
主要关键词