获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
Accurate Knowledge Distillation via N-best Reranking
我们建议利用 n-best 重新排序来增强序列级知识蒸馏 (Kim and Rush, 2016),其中我们从前 n 个最佳假设中提取学生模型训练数据的伪标签,并利用具有不同归纳偏差、目标函数或架构的多样化模型集(包括一些公开可用的大型语言模型)来挑选最高质量的假设作为标签。通过在 WMT’21 德语 ↔ 英语和中文 ↔ 英语翻译任务上的实验验证了我们提案的有效性。我们的结果表明,利用……