TinyBERT: Distilling BERT for Natural Language Understanding
github
关于论文的解读已经有很多文章了,本文仅仅说明数据增强的步骤。
1) 如果该单词的只有一个字
使用语言模型BERT预测出这个位置最有可能的m个词,作为候选集。
2)如果该单词含有多个字
使用GloVe的相似词向量的词汇进行组合,作为候选集。
京公网安备 11010502049817号