Loading...
机构名称:
¥ 1.0

将生成模型适应持续学习(又称cgl)最近引起了对计算机视觉的极大兴趣(Huang等,2024; Belouadah等,2021)。CGL的臭名昭著的问题是灾难性的遗忘,这反映了这样一个事实,即当发电机学习新任务时,它会忘记其以前学习的任务(Parisi等,2019)。主要的CGL方法是生成性重播(GR)(Shin等,2017; Van de Ven等,2020),该方法在混合数据集中重新训练了一个新的发电机,该数据集合了从先前的生成器和当前任务的真实样品产生的伪样品。一些扩展的CGL方法仅在当前任务数据上训练发电机,例如CEWC(Seff等,2017)和Mgan(Wu等,2018; Liu等,2020)等。然而,这些方法主要在条件生成的对抗网络(CGAN)上进行了研究,并且它们对于单个增量任务是可行的,而对于多个顺序任务,CGAN可以诱导不稳定的训练,从而导致下质量的样品(CONG等,2020)。

kfc:知识重建和饲料

kfc:知识重建和饲料PDF文件第1页

kfc:知识重建和饲料PDF文件第2页

kfc:知识重建和饲料PDF文件第3页

kfc:知识重建和饲料PDF文件第4页

相关文件推荐

2024 年
¥1.0
2024 年
¥13.0
1900 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2017 年
¥2.0
2011 年
¥3.0
2024 年
¥1.0
2023 年
¥9.0
2024 年
¥1.0
2024 年
¥1.0
2022 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥41.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥2.0
2024 年
¥1.0
2023 年
¥1.0
2021 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2023 年
¥1.0
2024 年
¥2.0
2024 年
¥1.0