GoogLeNet

作者: 信步闲庭v | 来源:发表于2017-10-17 09:33 被阅读14次

方法

文章提出获得高质量模型最保险的做法就是增加模型的深度(层数)或者是其宽度(层核或者神经元数),但是这里一般设计思路的情况下会出现几个缺陷:

  • 参数太多,容易过拟合,若训练数据集有限;
  • 网络越大计算复杂度越大,难以应用;
  • 网络越深,梯度越往后穿越容易消失,难以优化模型。

googlenet的主要思想就是围绕这两个思路去做的:深度,层数更深,文章采用了22层,为了避免上述提到的梯度消失问题,googlenet巧妙的在不同深度处增加了两个loss来保证梯度回传消失的现象;宽度,增加了多种核 1x1,3x3,5x5,还有直接max pooling的,但是如果简单的将这些应用到feature map上的话,concat起来的feature map厚度将会很大,所以在googlenet中为了避免这一现象提出的inception具有如下结构,在3x3,5x5之前,max pooling后分别加上了1x1的卷积核起到了降低feature map厚度的作用。

实验

References:
[1] http://www.cnblogs.com/Allen-rg/p/5833919.html
[2] Going deeper with convolutions, Christian Szegedy, 2015, CVPR

相关文章

网友评论

      本文标题:GoogLeNet

      本文链接:https://www.haomeiwen.com/subject/zemruxtx.html