上官秀花Lv1 2026-02-04 16:04:16 下午摸鱼的时候顺便看了点LLM的资料,突然发现原来transformer里的attention机制真的就是“谁重要就多看谁一眼”,之前一直没get到这个点,感觉像是打通了任督二脉……果然还是得慢慢啃啊,不能光看热闹 #AI学习日常# 登录/注册 加载更多