•在Fortran中复制一个网络,以使用Pytorch开发的模型,并仅使用Fortran重新实现它,从而从文件中加载了节省的权重。这可能需要大量的开发工作,重写已经存在的代码,以及缺少使用Torch的多样化和高度优化功能的机会。重新实施可能是错误的来源,需要其他测试以确保正确性。如果总体目标是将ML纳入Fortran,而不是使用Pytorch特定,那么另一种方法是利用基于Fortran的ML框架(例如Neural-Fortran)(Curcic,2019)。尽管它不允许与Pytorch相互作用,但神经fortran提供了许多直接在Fortran中建造网的神经网络组件。但是,一组功能并不像Pytorch那样丰富,而GPU卸载目前不受支持。目前,菲亚斯(Rouson&Rasmussen,2024年)库是直接在Fortran中开发,培训和部署ML模型的另一种方法,目前是实验性GPU支持。
地球系统模型(ESM)对于理解过去,现在和未来的气候至关重要,但它们遭受了旧式技术基础设施的困扰。ESM主要在Fortran中实施,该语言为早期职业科学家带来了很高的入境障碍,并且缺乏GPU运行时,随着GPU功率的增加和CPU缩放缩放的速度,这对于继续前进至关重要。fortran也缺乏可不同的性能 - 通过数值代码区分的能力 - 可以实现整合机器学习方法的混合模型。将ESM从Fortran转换为Python/JAX可以解决这些问题。这项工作提出了一种半自动化的方法,该方法使用大语言模型(GPT-4)将单个模型组件从Fortran转换为Python/Jax。通过从社区地球系统模型(CESM)中转换光合作用模型,我们证明了Python/JAX版本使用GPU并行化最多可快速运行时间,并通过自动差异启用参数估计。Python代码也易于阅读和运行,教室的讲师可以使用。这项工作说明了通往快速,包容和可区分气候模型的最终目标的途径。