Don't stop pretraining
如今很多NLP任务都会在Bert等预训练模型的基础上进行fine-tuning,可能很多人没有意识到在任务领域上进行新的预训练会进一步提高模型效果,下面这篇论文就从多个实践角度证明了这种方法的可行性。
阅读更多如今很多NLP任务都会在Bert等预训练模型的基础上进行fine-tuning,可能很多人没有意识到在任务领域上进行新的预训练会进一步提高模型效果,下面这篇论文就从多个实践角度证明了这种方法的可行性。
阅读更多自编码器(Autoencoder,AE),是一种利用反向传播算法使得输出值等于输入值的神经网络,它先将输入压缩成潜在空间表征,然后通过这种表征来重构输出。是一种简单却非常奇妙的神经网络结构。
阅读更多卷积神经网络(CNN)在计算机视觉领域产生了许多新进展也衍生出了许多新型的网络,其中MobileNet就是CNN在轻量级网络的一个非常优秀的网络架构探索。
阅读更多
redis简介
uv教程
Python包管理工具深度解析:venv、conda、poetry与uv
BERT与GPT:语言模型的双子星
python多进程中的坑
Don't stop pretraining
NER技术的探索与实践
神经网络语言模型
语言模型——N-gram模型
语言模型概述
python协程入门
Attention is all you need