尽管近年来对持续学习(CL)的兴趣日益增强,但继续加强学习(CRL)仍然是一项艰巨的任务,因为深层神经网络必须从维持旧任务表现的新任务中从每个从未见过的新任务中推断出适当的行动。为了解决此问题,一些CRL算法使用基于正则化的方法来限制常规CL中使用的权重和基于重播的方法。但是,它需要花费大量时间来学习,因为它需要大量的基于重播和具有复杂正则化项的内存。在本文中,我们提出了一个简单的框架,用于保留相关顺序任务之间的知识fmal,即MAP注意力丢失。我们的方法利用模型的一般CNN,可以很好地执行所有顺序任务,并且注意机制用于提取基本特征进行传输。另外,FMAL同时使用正规化方法和基于重播的方法,例如现有的CRL方法。但是,学习所需的记忆量要小得多,正则化的项相对简单。我们使用最先进的算法评估FMAL。实验结果表明,我们的方法以较高的奖励超过这些基准。
主要关键词