通过加强学习(RLHF)将大型语言模型(LLM)与人类偏好保持一致,可以导致奖励黑客,在这种情况下,LLMS在奖励模型(RM)中利用失败(RM)以实现看似高的奖励,而无需实现基本的目标。我们在设计RMS时确定了两个主要挑战以减轻奖励黑客黑客:在RL过程中的分配变化以及人类偏好的不一致。作为解决方案,我们提出了平均奖励模型(温暖),首先对多个RM进行细调,然后在重量空间中平均它们。此策略遵循以下观察结果:在共享相同的预训练时,微调权重保持线性模式。通过平均权重,与传统的预测结合相比,温暖提高了效率,同时提高了分配变化和偏好不一致的鲁棒性的可靠性。使用最佳和RL方法,我们对摘要任务的实验表明,温暖可以提高LLM预测的总体质量和一致性;例如,用温暖调整的策略RL对单个RM进行微调的政策RL的胜利率为79.4%。
主要关键词