MOE & MOA for Large Language Models
向专家小组寻求建议图片由作者提供(AI 生成 leonardo.ai)大型语言模型 (LLM) 无疑席卷了科技行业。它们的迅速崛起得益于来自维基百科、网页、书籍、大量研究论文以及我们喜爱的社交媒体平台的用户内容的大量数据。数据和计算密集型模型一直在狂热地整合来自音频和视频库的多模态数据,并且数月来一直在使用数万个 Nvidia GPU 来训练最先进的 (SOTA) 模型。所有这些都让我们怀疑这种指数级增长是否能持续下去。这些 LLM 面临的挑战很多,但让我们在这里探讨一些。成本和可扩展性:较大的模型可能需要花费数千万美元来训练和服务,成为日常应用程序采用的障碍。 (参见 GPT-4 的训练成本