这是我入AI读的第一篇paper,很简单却很经典的思路。
1.题目:Semi-supervised Segmentation of Optic Cup in Retinal Fundus Images Using Variational Autoencoder(使用VAE对视网膜光学杯进行半监督分割)
2.Paper来源:MICCAI 2017;作者,IBM实验室。
3.背景:这篇文章是对视杯进行分割,对于青光眼等疾病中,杯盘比(C/D)是指视乳头直径与其中的小凹的直径之比。它客观的反应了视神经的状况,当C/D大于0.5时可能诊断视神经萎缩,需要找出原发病(比如青光眼)。正常人的C/D一般在0.3左右,不超过0.5。所以视杯的分割尤其重要。而目前用于视杯的分割是因为不清楚和不均匀的边界使其分割非常具有挑战性。完全监督的方法需要大量的注释图像来实现合理的鲁棒性和准确性,这通常是不可取的,因为它可能是耗时且昂贵的。半监督方法通过利用大量未标记的数据以及标记的数据来解决这个问题,以提高性能。所以本文采取半监督的分割方式,使用变分自动编码器(VAE)作为生成模型。
4.方式:从大量未标记的数据中训练生成模型。然后,从生成模型嵌入的特征被并入分割模型中,使得可以从有限数量的标记图像训练分割模型。我们使用变分自动编码器(VAE)作为生成模型,根据低维潜变量对每个观测值进行建模。VAE有两部分:将输入入图像映射到连续潜在变量z的编码器网络,以及使用潜变量z来重构图像的解码器网络。
GVAE使用神经网络模拟图像的概率分布,由两部分组成: 生成编码器(GE)和生成解码器(GD)。GE将图像x作为输入,输出平均值μg和标准偏差σg。GE使用具有五个卷积层的卷积神经网络建模,其中每个卷积层之后是最大池层,其有效地将特征响应的尺寸减小一半。 然后将两个密集层附加到从最后一层的特征响应,以输出σz和μz。GD网络由五个网络内反褶积层组成,其采用潜在表示z并重构图像x。使用由变分下限给出的以下损失函数对GVAE进行训练:
p(z)是球面高斯分布p(z)= N(0,I),作为编码器网络的输出的后验分布qφ(z|x)也是高斯分布,所以上式第一项可以转换成:
SVAE的目标是通过利用GVAE学习的特征嵌入来预测来自给定图像的光学杯的分割掩模。与GVAE类似,SVAE由两部分组成:分段编码器(SE)和分段解码器(SD)。 SE使用五个卷积块和最大池层,然后是两个输出σv和μv的密集层进行建模
使用以下损失函数训练SVAE网络:
其中第一项是KL散度,根据p(z)是球面高斯分布p(z)= N(0,I),可以转化为:
第二项是表示预期的重建误差,可以使用二进制交叉熵计算的分割掩模,β表示SD网络的参数,第三项是在GE和SE产生的潜在代码之间欧几里德距离损失。
5.算法
6.实验
本研究中使用的数据集由EyePACS1提供,包含12000个高分辨率眼底图像。我们选择600张图像来创建一个标记的集合,其中通过临床医生手动描绘所有图像的杯区域来获得地面真相。剩余的11400张图像用作未标记的集合。
将标签集合分为400个训练和200个测试集。为了评估培训样本数量的效果,我们进一步将训练集划分为四个包含50,100,200,400个样本的子集。首先用20000次迭代的未标记集训练生成模型(GVAE)网络。我们使用带有动量和批量大小为50的RMSprop算法使用小批量梯度下降,学习速率设置为0.001。
使用算法1中描述的训练的GVAE来训练使用标记集的分割模型(SVAE)。使用小批量梯度下降训练了10000次迭代的SVAE网络,并且学习率为0.0001的Adam优化器。
7.结果
比较所提出的SVAE,Unet方法和SAVE-Plain的地面实数和预测分段之间的平均骰子系数(DC),结果如下:
结果表示,本文的方法在完全训练集后平均DC为0.80,略高于Unet和SVAE-Plain。然而,当我们使用较少数量的训练样本时,所提出的方法在Unet和SVAE-Plain都显着改善。这表明当标记图像的数量有限时,所提出的方法提高了分割性能。
下图为分割结果,红色是真实的视杯,绿色是本文方法分割出来的视杯。
网友评论