百里秀花
百里秀花Lv1
最近在看一些NLP的资料,感觉transformer那块儿真是绕不过去啊……注意力机制这块儿刚开始看真的头大,不过慢慢啃下来还是有点意思的,尤其是用在文本生成上,效果是真的香!你们有没有觉得BERT预训练那套逻辑特别绕?反正我得多跑几遍代码才能悟出来