美文网首页
GoogLeNet(Inception V1)论文学习记录

GoogLeNet(Inception V1)论文学习记录

作者: 砥砺前行的人 | 来源:发表于2022-01-08 17:57 被阅读0次

原文:Going deeper with convolutions

大赛往年冠军

GoogLeNet 在使用更深网络的同时,通过 1x1 卷积以及 Global Average Pooling尽可能的使模型的参数数量减少,主要考虑了未来在边缘设备中对于能耗和内存的考虑,较少的参数意味着更低的能耗和更少内存消耗。

Inception 模块的主要思想是将前层的 feature map 通过不同尺度的卷积核进行卷积(也可能是下采样),再将多路的输出汇总后作为当前层的输出发送给下一层:


完整网络结构

GoogLeNet

1x1 卷积

作用:

  1. 降维或升维
  2. 跨通道信息交融
  3. 减少参数量
  4. 增加模型深度,提高非线性表示能力

示意图如下:


1x1卷积核卷积过程

Global Average Pooling

针对每个通道求平均进行池化

Inception 模块

由多尺度的卷积处理 堆叠在一起。


原始版本和优化版本

后者通过 1x1 卷积进行升维和降维,能够有效地降低参数量。

用密集的模块去近似出局部最优的稀疏结构

Hebbian principle

赫布学习法则:'neurons that fire together, wire together'。神经元之间的突触“用进废退”

体系结构

GoogLeNet incarnation of the Inception architecture

辅助分类器

促进更快收敛,损失函数系数 0.3

相关文章

网友评论

      本文标题:GoogLeNet(Inception V1)论文学习记录

      本文链接:https://www.haomeiwen.com/subject/xnbecrtx.html