强化学习(RL)在机器学习算法的领域中脱颖而出,因为其独特的方法涉及代理与环境相互作用的代理,以发现最大程度地提高预期累积奖励的政策。这与监督的学习形成对比,后者依赖于预定的数据标签对来进行更正。在RL中,反馈信号仅来自环境中定义的奖励功能,这使得此奖励功能的设计至关重要。设计较差的奖励功能可以阻碍学习过程,并导致一项预测不良行动的政策[3],强调了RL仔细奖励功能工程的重要性。在为环境设计奖励功能时,尤其是对于机器人操纵任务时,常见的方法是将对象和目标之间的总距离或额外的奖励使用。例如,fetch [29]中的任务使用抓地力和目标位置之间的距离作为奖励,而Metaworld [44]中的拾取位置任务使用抓地力,对象和目标位置之间的距离,并带有额外的奖励,表明对象是否由抓手抓住。但是,这种奖励功能设计倾向于评估当前状态而不是动作本身。一种更强大的方法涉及基于动作的奖励指标,这些指标可以评估行动质量,考虑到诸如动作效率,路径优化和动态相互作用之类的因素。在机器人操纵任务中,要实现目标状态,必须首先实现一系列先决条件。仅在物体和目标位置之间的距离时设计奖励功能通常会错过一些先决条件。
主要关键词