归档
民胞物与,念兹在兹
12
11
Don't stop pretraining Don't stop pretraining
如今很多NLP任务都会在Bert等预训练模型的基础上进行fine-tuning,可能很多人没有意识到在任务领域上进行新的预训练会进一步提高模型效果,下面这篇论文就从多个实践角度证明了这种方法的可行性。
2021-12-11