现有的先验使用预先训练的重量作为中心,这可能会构成对目标数据适应不足的严重风险。在[ICML2020-LI]中,我们提出了一种步枪方法,该方法会积极忘记通过在细调过程中重新定位完全连接的层所学到的东西,以增强目标适应性。学习过程的稳定性主要是由于模型崩溃或信息理论中输入和输出的异常相互信息。模型崩溃可以通过跨层相互信息的变化来检测。在[ICASSP 2023-LI]中,我们基于信息的感应偏见补充了现有的先验,以偏爱具有稳定信息传播的网络,以降低模型崩溃率并提高模型稳定性。我们进一步开发了具有可牵引概括的新先验,以鼓励微调模型对输入噪声不敏感[NAACL2021-LI]。(用于bert微调的噪声稳定性正则化)
主要关键词