获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
W2v-bert: Combining Contrastive Learning and Masked Language Modeling for Self-supervised Speech Pre-training
受掩蔽语言建模 (MLM) 在预训练自然语言处理模型中的成功启发,开发人员提出了 w2v-BERT,探索 MLM 用于自监督语音表示学习。