最近事情比较多,有两个项目要做,又要找工作,还要准备参加一个会议,因此日记变成了周记,对此万分抱歉(包头痛哭!)
先说说最近听到的有趣的新闻,emmmm,好像除了一个CMU的教授diss谷歌以外没啥太有趣的了,大家有什么有趣的新闻可以分享一下。
废话也不多说啦,直接进入正题吧,今天继续研读2018CVPR的自动驾驶相关文章,论文的题目是《On the iterative refinement of densely connected representation levels for semantic segmentation》是由FAIR实验室出品的,质量应该不错。
先看一下标题,关于语义分割的密集连接表示层级的迭代细化,本文在FC-DenseNet和FC-ResNet的基础上提出了一种结合两者优点的网络结构Fully Convolutional DenseResNets (FC-DRNs),该结构将ResNet模型采用DenseNet的连接方法进行密集连接,从而结合两个网络的优点。
关于DenseNet感兴趣的可以看相关博客资料,因为是2017CVPR的oral,因此对这篇文章的解读也很多很详尽,而ResNet更是大名鼎鼎,几乎和CNN一样成为了深度学习的经典结构之一了。
网络结构这一张图几乎就是文章的全部内容啦,上图结构中IDB代表初始下采样块,不同颜色的BLOCK代表不同的个残差网络结构块,各个残差网络结构块之间使用DenseNet的连接方法进行连接。在上采样和下采样过程中,作者分别使用了池化、stride convolution以及空洞卷积三种方法进行下采样,同时使用上采样(对应池化,stride concolution操作)以及1*1卷积(对应空洞卷积操作)。
文章使用的残差以及多级空洞卷积块 文章使用的一种网络结构细节 本文方法得到的结果本文的优势在于使用小样本数据集以及参数较少的网络结构就可以得到最优的语义分割结果,说明ResNet和DenseNet网络结构的结合可以更加充分的利用特征信息,从而减少对数据的需求量。同时本文对三种目前比较普遍的下采样方法和两种上采用方法进行了交叉实验对比,并通过实验结果得到如下结论:
1.在不进行预训练的情况下,池化和stride convolution的性能优于空洞卷积。
2.在精调模型的过程中,空洞卷积操作是有效的。
3.粗粒度表征对精细操作的要求更少。
4.残差网络结构是一种很好的正则方法,因为其可以在需要的时候有效的减少模型容量。
本文使用的数据集是CamVid数据集(关于目前公开的图像语义分割数据集大家可以参考图像语义分割数据集),该数据集主要包含城市驾驶场景,每张图片分辨率为360*480,整个数据集包含11语义类,数据集中367张图片作为训练集,101张作为验证集,233张为测试集。
本文进行了大量的试验工作对模型的不同变体进行了测试,下面展示一下实验结果:
五种变体结果对比 与其他方法对比本文方法在没有进行预训练的条件下就达到了最有效果,但是实验中并没有进行跨数据集语意分割的实验对比,因此我认为无法判定其是否可以用小数据集训练出色的模型。
最后,祝好!愿与诸君一起进步。
网友评论