Don't stop pretraining
如今很多NLP任务都会在Bert等预训练模型的基础上进行fine-tuning,可能很多人没有意识到在任务领域上进行新的预训练会进一步提高模型效果,下面这篇论文就从多个实践角度证明了这种方法的可行性。
阅读更多如今很多NLP任务都会在Bert等预训练模型的基础上进行fine-tuning,可能很多人没有意识到在任务领域上进行新的预训练会进一步提高模型效果,下面这篇论文就从多个实践角度证明了这种方法的可行性。
阅读更多卷积神经网络(CNN)在计算机视觉领域产生了许多新进展也衍生出了许多新型的网络,其中MobileNet就是CNN在轻量级网络的一个非常优秀的网络架构探索。
阅读更多
Flask、SQLAlchemy和Migrate
LLM中的Tokenizer
redis简介
uv教程
Python包管理工具深度解析:venv、conda、poetry与uv
BERT与GPT:语言模型的双子星
python多进程中的坑
Don't stop pretraining
NER技术的探索与实践
神经网络语言模型
语言模型——N-gram模型
语言模型概述