本文考虑了仅在达到某些最终状态(或此类实例的组成)时才能获得积极奖励的RL实例,例如迷宫探索出口时有大量积极的奖励。尽管这种设置显然受到限制,但本文指出,培训与一项政策相关的深层网络,然后仅通过平滑贝尔曼方程并添加对初始状态的积极限制,可以通过随机性或好奇心来完成,而在此设置中,即在0-loss假设下,就可以在0板的假设中表现出积极的阳性Q值,以至于是在0板的假设中(以下一个效果),因此它是在0-loss假设中的出现(以下是一个效果),因此它是在0板的假设中(以下是一个效果),因此一定是一个效果,因此,这是一个效果,因此,这是一个效果,以至于一定要么在0层状态下(以下情况下),因此,一定是一个效果。被锁定。从这种初始化中,可以使用包含通往良好出口的路径的重播缓冲区来完善经典的深Q学习。未来的作品应考虑此框架的实际实验。
主要关键词