原文:Going deeper with convolutions
![](https://img.haomeiwen.com/i26324718/437b2b70eb015f19.png)
GoogLeNet 在使用更深网络的同时,通过 1x1 卷积以及 Global Average Pooling尽可能的使模型的参数数量减少,主要考虑了未来在边缘设备中对于能耗和内存的考虑,较少的参数意味着更低的能耗和更少内存消耗。
Inception 模块的主要思想是将前层的 feature map 通过不同尺度的卷积核进行卷积(也可能是下采样),再将多路的输出汇总后作为当前层的输出发送给下一层:
![](https://img.haomeiwen.com/i26324718/bfe72dee9a705e7a.png)
完整网络结构
![](https://img.haomeiwen.com/i26324718/95aaa3dc1e3f937c.png)
1x1 卷积
作用:
- 降维或升维
- 跨通道信息交融
- 减少参数量
- 增加模型深度,提高非线性表示能力
示意图如下:
![](https://img.haomeiwen.com/i26324718/47713b017d3bad42.png)
Global Average Pooling
针对每个通道求平均进行池化
Inception 模块
由多尺度的卷积处理 堆叠在一起。
![](https://img.haomeiwen.com/i26324718/db46cec7470fb2a4.png)
后者通过 1x1 卷积进行升维和降维,能够有效地降低参数量。
用密集的模块去近似出局部最优的稀疏结构
Hebbian principle
赫布学习法则:'neurons that fire together, wire together'。神经元之间的突触“用进废退”
体系结构
![](https://img.haomeiwen.com/i26324718/870443efa3ad98ad.png)
辅助分类器
![](https://img.haomeiwen.com/i26324718/6af3bf1e0ec8c891.png)
促进更快收敛,损失函数系数 0.3
网友评论