美文网首页
VGG 论文学习记录

VGG 论文学习记录

作者: 砥砺前行的人 | 来源:发表于2022-01-08 15:30 被阅读0次

    原文:VERY DEEP CONVOLUTIONAL NETWORKSFOR LARGE-SCALE IMAGE RECOGNITION(用于大规模图像识别的深度卷积网络)

    部分截图来自:https://www.bilibili.com/video/BV1fU4y1E7bY?p=2

    大赛往年冠军

    作者的主要使用具有非常小的(3×3)卷积滤波器的体系结构对增加深度的网络进行了彻底的评估,并试图表明将深度推进到16-19层权重层可以实现对现有技术配置的显著改进。

    网络架构图如下所示

    VGG 主要推出了两个深度的模型:VGG16 和 VGG19:

    VGG16 和 VGG19

    网络隐藏层主要包含:

    • 卷积层
    • ReLU
    • 下采样 MaxPooling
    • 全连接层
    • softmax
    • dropout

    3x3 卷积核

    3x3是能够表示上下左右中心的最小卷积核,VGG 所有卷积层的卷积核全都使用了 3x3 卷积核:


    5x5卷积可以分解为两个3x3的卷积,参数明显减少(5x5总参数个数为 5x5xCxC,两个3x3卷积为 2x3x3xCxC)

    我们可以通过 3x3 的卷积核的叠加来代替原来的 5x5 或者 7x7的卷积核(感受野相同),这不仅增加了网络的层数,提升了网络表达的能力(引入更多的非线性),也大大地降低了网络参数的个数,减少信息丢失,提升训练的速度和效率。

    训练

    • 损失函数为交叉熵
    • 使用带动量的 mini-batch 梯度下降
    • 正则化使用了Dropout和 L2正则化
    • 使用 ReLU 作为激活函数
    • 先使用11层训练一个初始模型作为初始参数,然后使用完成模型进行训练(剩下的层使用高斯分布初始化)

    缺点

    VGG 模型结构虽然简单,没有复杂的拓补结构,但臃肿复杂,参数过多(超过一亿个),速度慢,第一个全连接层占据了大量参数。

    迁移学习与 fine-tuning

    VGG 很适合作为迁移学习的预训练模型,作为特征提取器或者对其进行微调。

    训练集尺度

    训练集输入尺度的变化有利于模型的训练准确率的提高。

    相关文章

      网友评论

          本文标题:VGG 论文学习记录

          本文链接:https://www.haomeiwen.com/subject/ujxdcrtx.html