引言
喂,大家晚上好,我是***
我今天给大家分享的是
一篇来自AAAI 2020的 ,,
他 做的是多任务的 视网膜病变的分级和分割
(翻页)
![](https://img.haomeiwen.com/i11917975/90791816670b81a7.png)
这篇文章的贡献是,
一是提出了一种用于 多任务学习的半监督方法
二是提出了MTUnet模型
三是 作者的方法可以显着提高现有网络的性能,
特别是在区分具有中度 DR 和轻度 DR 这两方面。
这个DR指的是糖尿病视网膜病变。
作者这篇文章中的多任务
指的是,1是视网膜病变分割
2是 视网膜病变分级,这是个分类问题
为了用一个模型完成2个任务,
有2种显而易见的方法
一是基于UNet模型 ,
在网络解码器部分的末尾
添加视网膜病变的分级输出
另一种是,一个两步网络,
先是用 UNet 输出分割掩码,
然后 在进行DR分级预测。
(翻页)
作者没有使用这2种方法
而是提出了一种新方法
这个是作者提出的新模型MTUnet
也可以 完成 分割和分类2个任务
但其实MTUnet很简单
就是,用VGG16网络替换
原来的Unet的编码器部分。。
然后,由这个VGG-16输出视网膜图像的分类。。
解码器利用这个网络提取的特征
来获得视网膜病变分割结果。。
(翻页)
这个就是他的模型的具体结构
在 vgg16最后一步, 卷积块结束时
使用 最大池化 来提取最终特征,
进行视网膜图像的分级分类。
然后使用对应的
反卷积操作完成病变的分割。
(翻页)
下面来看一下,作者的实验结果
这个图是,作者拿他的模型 和 其他的 模型 做对比
其实他,也用了,resnet,
densenet 做 unet 的编码器。。
但是,只有 vgg做解码器的unet 分割效果最佳,
然后,就吧 这个 表现最好的模型 命名为 MTUnet
从这个图中,可以看到
ResNet 和 Inception没有检测到红色病变
DenseNet 只检测到与 红色病变 相对应的部分区域
只有作者提出的模型,
和他真实的标签值 是 最接近的。。
因为 做分割任务 的 标签的 图像数量有限。。
所以作者,出了一种半监督方法,,
来增加图像数量。
他用小批量的数据,
将置信度比较高的那些,加入到训练集中
作为 MTUnet的输入
(翻页)
数据集:
他用了4个数据集,前两个是印度公开的数据集
第三个是Kaggle提供的数据集
最后一个是新加坡视网膜病变数据集
(翻页)
这个表格就证明了,
MTUnet 在分割红色和黄色病变,
方面都优于所有其他网络。。。
下面的这个表格,
也证明了他的模型,
在所有DR分类上,
都能获得更高的结果。。
(翻页)
他的优点是,解决了一个比较新的问题,
视网膜的病变分割和分级,,,
然后提出了一个新模型,MTUnet
他的缺点是:
他只是再用 vgg16替换了unet的编码器部分
创新点很小
但是他之所以能投在AAAI,
除了是因为,
他解决了一个比较新的问题以外。。
他的写作也是值得学习的
(结束)
大家有上面问题吗?
没有的话,那我就结束了
网友评论