基于上一篇文章说到的VIT(Transformers for Image Recognition at Scale)论文及代码解读
下面基于唐宇迪的视频简要说一下TNT模型。
其实说白了就是原来的切分的
patch size
比较大,所以这里就是将我们的patch size
弄细一点。内部在原来的patch
的基础上再嵌套一次Transformer
。
image.png
基于上一篇文章说到的VIT(Transformers for Image Recognition at Scale)论文及代码解读
下面基于唐宇迪的视频简要说一下TNT模型。
patch size
比较大,所以这里就是将我们的patch size
弄细一点。内部在原来的patch
的基础上再嵌套一次Transformer
。
image.png
本文标题:Transformer 在图像中的运用(二)TNT(Transf
本文链接:https://www.haomeiwen.com/subject/ckrjcrtx.html
网友评论