Loading...
机构名称:
¥ 1.0

Actor-Critic方法在许多领域中实现了最新的性能,包括机器人技术,游戏和控制系统([1],[2],[3])。时间差异(TD)学习可能被认为是演员评论家的组成部分,而TD学习的更好界限通常是参与者 - 批评分析的成分。我们考虑强化学习中的政策评估问题:鉴于马尔可夫决策过程(MDP)和政策,我们需要估算本政策下每个州(预期的所有未来奖励总和)的价值。政策评估很重要,因为它实际上是许多其他算法(例如策略迭代和参与者批评)的子例程。政策评估的主要挑战是,我们通常不知道基本的MDP,并且只能与之互动,并且状态数量通常太大,迫使我们维持对状态值的真实向量的低维近似。我们将重点放在克服这组挑战的最简单类别的方法上,即具有线性函数近似的TD方法。这些方法试图维持低维参数,该参数会根据观察到的奖励和过渡不断更新,以维持跨州估计值的一致性。这些方法的收敛证明首先在[4]中给出。在本文中,我们重点介绍了策略评估的多代理版本:我们考虑具有同一MDP和相同政策副本的n个代理,但是MDP

风险和冲动的独特发展轨迹

风险和冲动的独特发展轨迹PDF文件第1页

风险和冲动的独特发展轨迹PDF文件第2页

风险和冲动的独特发展轨迹PDF文件第3页

风险和冲动的独特发展轨迹PDF文件第4页

风险和冲动的独特发展轨迹PDF文件第5页