美文网首页
【读论文】MICCAI2021:Medical Transfor

【读论文】MICCAI2021:Medical Transfor

作者: 阿尼亚要好好读书呀 | 来源:发表于2022-11-30 13:57 被阅读0次

引言

image.png

喂,大家晚上好,我是222
我今天分享的是来自 MICCAI 2021的一篇文章
Medical Transformer,MedT,
是上周实验中表现最好的模型

1 贡献

image.png

他的主要贡献是
在 1的基础上增加了一个门的概念
第二,提出了logo的训练策略
第三,提出了MedT模型

2 Method - Logo

image.png

其实MedT模型很简单,
就是用带们的axial attention层,
替换了原来的transformer块
然后 使用了 Logo策略

那这个Logo其实是 Local-Global的简称
其实是一种集成
不管是 Global Branch 还是 Local Branch
都是使用了Transformer的编码器,解码器
只不过, Global Branch比较浅,
输入是完整的图片
而,Local Branch,比较深,以Patch作为输入

然后再最后一层,把这两个分支运算的结果
+起来,最后通过一层卷积,得到图像分割的结果

2 MedT - Gated Axial Attention

image.png

在看作者提出的带门的Axial Attention之前呢
其实应该看一下2的这篇文章 中 的 Axial Attention

2 MedT - Gated Axial Attention

image.png

然后就会觉得
作者的创新在于门
也就是这里的蓝色方框中的
这个门,也是可以学习的参数
通过门的控制,
给那些没有学习到全局信息的参数,
更大的比重。

所以底下的这个公式,
也是对应的增加上了门

3 Experiment - Dataset

image.png

数据集是 3 个公开的医疗数据集
损失函数,是 交叉熵损失函数

3 Experiment

image.png

下面看一下实验结果

主要是看 作者的模型 和 Axial Attention U-net的比较
因为作者 主要是 在 Aixal atten的基础上
增加了门 和 Global 分支

然后就发现,这个门的作用,很小,只有0.几个点
甚至 在 这里,带门的,还不如原来的好

这MedT的提升,主要实在logo策略上

底下的这个,也证明了
他的模型,比 其他模型要好一点

3 Experiment 定性分析

image.png

这个是定性分析的结果
方框里面的,就是作者的模型
分割的更好的地方

4 Pros & Cons

他的优点是,
提出了 MedT模型
这个模型 几乎 和 Axial Atten.一样
只不过,增加了门和 Global分支

缺点是,
其实他的提升太小了
只有1个点多吧
那很难说清楚
是模型带来的提升
还是调参数导致的提升

(翻页)

大家有上面问题吗?
没有的话,那我就结束了

相关文章

网友评论

      本文标题:【读论文】MICCAI2021:Medical Transfor

      本文链接:https://www.haomeiwen.com/subject/btulfdtx.html