引言
![](https://img.haomeiwen.com/i11917975/56b0bba2700a9644.png)
喂,大家晚上好,我是222
我今天分享的是来自 MICCAI 2021的一篇文章
Medical Transformer,MedT,
是上周实验中表现最好的模型
1 贡献
![](https://img.haomeiwen.com/i11917975/2bebda6c05bd2080.png)
他的主要贡献是
在 1的基础上增加了一个门的概念
第二,提出了logo的训练策略
第三,提出了MedT模型
2 Method - Logo
![](https://img.haomeiwen.com/i11917975/18fba22ec0aa59ab.png)
其实MedT模型很简单,
就是用带们的axial attention层,
替换了原来的transformer块
然后 使用了 Logo策略
那这个Logo其实是 Local-Global的简称
其实是一种集成
不管是 Global Branch 还是 Local Branch
都是使用了Transformer的编码器,解码器
只不过, Global Branch比较浅,
输入是完整的图片
而,Local Branch,比较深,以Patch作为输入
然后再最后一层,把这两个分支运算的结果
+起来,最后通过一层卷积,得到图像分割的结果
2 MedT - Gated Axial Attention
![](https://img.haomeiwen.com/i11917975/74954c265781f8f6.png)
在看作者提出的带门的Axial Attention之前呢
其实应该看一下2的这篇文章 中 的 Axial Attention
2 MedT - Gated Axial Attention
![](https://img.haomeiwen.com/i11917975/81b11c0b621b9e1d.png)
然后就会觉得
作者的创新在于门
也就是这里的蓝色方框中的
这个门,也是可以学习的参数
通过门的控制,
给那些没有学习到全局信息的参数,
更大的比重。
所以底下的这个公式,
也是对应的增加上了门
3 Experiment - Dataset
![](https://img.haomeiwen.com/i11917975/c462f8f671eaabf6.png)
数据集是 3 个公开的医疗数据集
损失函数,是 交叉熵损失函数
3 Experiment
![](https://img.haomeiwen.com/i11917975/3f7d6ccfffeec129.png)
下面看一下实验结果
主要是看 作者的模型 和 Axial Attention U-net的比较
因为作者 主要是 在 Aixal atten的基础上
增加了门 和 Global 分支
然后就发现,这个门的作用,很小,只有0.几个点
甚至 在 这里,带门的,还不如原来的好
这MedT的提升,主要实在logo策略上
底下的这个,也证明了
他的模型,比 其他模型要好一点
3 Experiment 定性分析
![](https://img.haomeiwen.com/i11917975/4954e9f5be26a091.png)
这个是定性分析的结果
方框里面的,就是作者的模型
分割的更好的地方
4 Pros & Cons
他的优点是,
提出了 MedT模型
这个模型 几乎 和 Axial Atten.一样
只不过,增加了门和 Global分支
缺点是,
其实他的提升太小了
只有1个点多吧
那很难说清楚
是模型带来的提升
还是调参数导致的提升
(翻页)
大家有上面问题吗?
没有的话,那我就结束了
网友评论