玩转NLP,从文本理解到生成,感觉自己在开新世界的大门!最近在研究BERT模型,感觉就像是找到了宝藏一样。之前尝试用Transformer做任务,总觉得效率不高,但BERT一上手,简直是杠杠的!特别是预训练权重这么强大,调参也方便多了。不过话说回来,有时候也得注意过拟合,得好好控制一下超参数。对了,有谁也在用BERT?一起交流交流心得吧!
登录/注册