Loading...
机构名称:
¥ 2.0

抽象的奖励成型已被证明是加速增强学习过程(RL)代理的有效技术。虽然在经验应用方面取得了成功,但良好的塑形功能的设计原则上的理解较少,因此通常依赖于领域的专业知识和手动设计。为了超越这个限制,我们提出了一种新型的自动化方法,用于设计离线数据的奖励功能,可能被未观察到的混杂偏见污染。我们建议使用从离线数据集计算出的因果状态值上限作为对最佳状态价值的保守乐观估计,然后用作基于潜在的基于潜在的重新塑造(PBR)的状态电位。根据UCB原则,将我们的塑造功能应用于无模型学习者时,我们表明,它比学习者而没有塑造的学习者享有更好的差距遗憾。据我们所知,这是通过在线探索中限制PBR的第一个依赖差距的遗憾。模拟支持理论发现。

自动奖励从混杂的离线数据

自动奖励从混杂的离线数据PDF文件第1页

自动奖励从混杂的离线数据PDF文件第2页

自动奖励从混杂的离线数据PDF文件第3页

自动奖励从混杂的离线数据PDF文件第4页

自动奖励从混杂的离线数据PDF文件第5页