幂律关键词检索结果

重新审视大型语言模型训练中下游指标的扩展属性

Revisiting the Scaling Properties of Downstream Metrics in Large Language Model Training

虽然大型语言模型 (LLM) 的缩放法则传统上关注预训练损失等代理指标,但预测下游任务性能被认为是不可靠的。本文提出了一个直接框架来对培训预算中的基准性能扩展进行建模,从而挑战了这一观点。我们发现,对于固定的令牌与参数比,简单的幂律可以准确地描述多个流行下游任务的日志精度的缩放行为。我们的结果表明,直接方法比之前提出的两阶段程序更好地推断......