我们展示了在人机协作任务中适应人类偏好对信任的影响。团队执行一项任务,其中机器人充当人类的动作推荐者。假设人类和机器人的行为基于他们试图优化的某种奖励函数。我们使用一种新的人类信任行为模型,该模型使机器人能够在与人类互动的过程中使用贝叶斯逆强化学习实时学习并适应人类的偏好。我们提出了三种机器人与人类互动的策略:非学习者策略,其中机器人假设人类的奖励函数与机器人的相同;非自适应学习者策略,学习人类的奖励函数以进行性能评估,但仍优化自己的奖励函数;自适应学习者策略,学习人类的奖励函数以进行性能评估,并优化这个学过的奖励函数。结果表明,适应人类的奖励函数会使机器人获得最高的信任。
主要关键词