Loading...
机构名称:
¥ 1.0

最近的研究表明,变压器可以通过模仿现有的RL算法来执行内在的增强学习(RL),从而使样本有效的适应能够适应无参数更新而无需看到的任务。但是,这些模型还继承了它们模仿的RL算法的次优行为。由于这些算法采用的逐渐更新规则,因此出现了此问题。基于模型的计划通过允许模拟在采取行动之前模拟潜在结果,提供了一种额外的机制来偏离次优行为,从而为这种限制提供了有希望的解决方案。我们没有学习Sepa-Rate Dynamics模型,而是提出了基于信用的RL框架(DICP)的蒸馏(DICP),在其中,变压器同时学习环境动力学并改善策略,并在内部进行改善。我们评估了跨多种离散和连续环境(包括暗室变体和元世界)的DICP。我们的结果表明,与基准相比,DICP可以达到最先进的性能,同时需要的环境相互作用要少得多,基本线包括无模型的对应物和现有的Meta-RL方法。该代码可在https://github.com/jaehyhyeon-son/dicp上获得。

蒸馏加固学习算法

蒸馏加固学习算法PDF文件第1页

蒸馏加固学习算法PDF文件第2页

蒸馏加固学习算法PDF文件第3页

蒸馏加固学习算法PDF文件第4页

蒸馏加固学习算法PDF文件第5页