随着变压器和视觉模型(VLM)的出现,例如剪辑,微调大型预培训模型最近已成为持续学习的普遍策略。这导致发展了许多促使策略以适应基于变形金刚的模型而不会引起灾难性遗忘。但是,这些策略通常会损害预先训练的剪辑模型的原始零射击功能,并难以适应明显偏离预训练数据的域。在这项工作中,我们提出了持续的生成培训,以进行增量及时学习,这是一种简单而新颖的方法,可以减轻遗忘,同时调整剪辑。简而言之,我们采用各种自动编码器(VAE)来学习视觉编码器嵌入空间内的类调节分布。然后,我们利用这些分布来采样新的合成视觉嵌入式,并在随后的任务中训练相应的特定类文本提示。通过对不同领域的广泛实验,我们表明,这种生成的重播方法可以适应新任务,同时改善零射击功能,并使用针对CL方案量身定制的新型度量标准进行了评估。值得注意的是,进一步的分析表明,我们的方法可以通过关节及时调整弥合差距。该代码库可从https://github.com/ aimagelab/mammoth获得。
图 2 图例,续。(C)在奖励前期(左)、奖励后期(中)和中心端口总时间(右)计算的 SWR 率。操纵队列 n = 1892、684、1157 和 1602 次 NF 试验以及 2022、640、1201 和 1552 次延迟试验;对照队列 n = 2490、2629、2027 和 3021 次试验。对于奖励前期,操纵队列 NF 和延迟试验之间的秩和比较:p = 4.382x10 -258、7.111x10 -83、5.689x10 -214 和 3.285x10 -191。插图:分组比较。操纵队列 NF 试验与控制队列试验:p = 1.126x10 -16 ;操纵队列延迟试验与控制队列试验:p = 0.009。对于奖励后时期,操纵队列 NF 和延迟试验之间的等级和比较:p = 3.646x10 -127 、0.038、6.538x10 -11 和 2.768x10 -
重放是指重新激活一个或多个神经模式,这些模式与过去清醒时经历的激活模式相似。重放最早是在睡眠期间在生物神经网络中观察到的,现在人们认为它在记忆形成、检索和巩固中起着关键作用。类似重放的机制已被纳入深度人工神经网络中,这些神经网络会随着时间的推移进行学习,以避免灾难性地遗忘先前的知识。重放算法已成功用于监督、无监督和强化学习范式中的各种深度学习方法。在这封信中,我们首次对哺乳动物大脑中的重放和人工神经网络中的重放进行了全面的比较。我们确定了深度学习系统中缺少的生物重放的多个方面,并假设如何使用它们来改进人工神经网络。
生成重放:Shin 等人,2017 NeurIPS 突触智能 (SI):Zenke 等人,2017 ICML 弹性权重合并 (EWC):Kirckpatrick 等人,2017 PNAS 不遗忘学习 (LwF):Li & Hoiem,2017 IEEE T 模式分析上下文相关门控 (XdG):Masse 等人,2018 PNAS