在这篇文章中,我将介绍一种基于“另类”范式的强化学习 (RL) 算法:分而治之。与传统方法不同,该算法不是基于时间差(TD)学习(存在可扩展性挑战),并且可以很好地扩展到长视野任务。我们可以基于分而治之进行强化学习(RL),而不是时间差(TD)学习。问题设置:离策略RL我们的问题设置是离策略RL。让我们简单回顾一下这意味着什么。强化学习中有两类算法:在策略强化学习和离策略强化学习。同策略 RL 意味着我们只能使用当前策略收集的新数据。换句话说,每次更新策略时我们都必须丢弃旧数据。像 PPO 和 GRPO 这样的算法(以及一般的策略梯度方法)就属于这一类。离策略 RL 意味着我们没有这个限制:我