【李沐AI论文精读】ICLR2021 ViT transformer
读论文系列最前言
写在前面的一些(废)话
上岸以后一直在摸鱼,浑浑噩噩拖拖拉拉的学完了,太感谢沐神了!彻底入坑他的各种系列课程了!因为最近两个月老师要求组里面每周都要开组会汇报论文。于是开始了欢欢喜喜读论文的道路orz(bushi 自己读论文有很多细节会理解不到位,前几天又刚好看完了沐神的transformer和注意力机制的讲解,以及李宏毅老师的课,感觉不如趁热打铁,赶紧把transformer方面的几篇与CV相关的重要论文学习一下 决定将跟着沐神的课,继续深入了解。 下面将把跟着沐神 / 读论文的笔记整理贴出来。 写这个博客的目的更多的是帮助自己去繁化简,把笔记里重要的内容条理清晰的表达出来~当然也希望能帮助到正在学习的小伙伴们,希望你们能通过我的整理(笔记)获得你们想要的知识。
持续更新————挖坑~~~:
NIPS2017 transformer论文 (CNN和RNN的终结者?) ICLR2021 ViT 论文(transf