摘要。AI模型被批评为黑匣子,这可能会使气候科学更加不确定性。已提出了可解释的人工智能(XAI)来探测AI模型并增加信任。在这篇评论和观点论文中,我们建议,除了使用XAI方法外,气候科学领域的AI研究人员还可以从过去的成功发展中学习基于物理学的动态气候模型的成功。动力学模型很复杂,但获得了信任,因为它们的成功和失败可以在某些时候归因于特定的组件或子模型,例如,当指向细胞参数化来解释模型偏差时。我们提出了三种类型的理解作为评估动力学和AI模型的信任的基础:(1)工具理解,当模型通过功能测试时,这是对此进行的; (2)在研究人员可以使用统计技术识别输入输入关系的建模结果时获得的坚定理解; (3)组件级的理解是指建模者指向模型架构中特定模型组件或部分的特定模型组件的能力,作为不稳定的模型行为的罪魁祸首,或者是模型的原因。我们演示了过去几十年来通过气候模型对比项目进行的组件级别的理解和实现。这种组件级别的理解通常会导致模型改进,也可以作为思考AI驱动气候SCI-
主要关键词