w2v关键词检索结果

W2v-bert:结合对比学习和用于自监督语音预训练的掩蔽语言建模

W2v-bert: Combining Contrastive Learning and Masked Language Modeling for Self-supervised Speech Pre-training

受掩蔽语言建模 (MLM) 在预训练自然语言处理模型中的成功启发,开发人员提出了 w2v-BERT,探索 MLM 用于自监督语音表示学习。