前言
Google Inception Net在2014年的 ImageNet Large Scale Visual Recognition Competition (ILSVRC)中取得第一名,该网络以结构上的创新取胜,通过采用全局平均池化层取代全连接层,极大的降低了参数量,是非常实用的模型,一般称该网络模型为Inception V1。随后的Inception V2中,引入了Batch Normalization方法,加快了训练的收敛速度。在Inception V3模型中,通过将二维卷积层拆分成两个一维卷积层,不仅降低了参数数量,同时减轻了过拟合现象。
一、多少层?
Inception V3究竟有多少层呢?某书籍上说42层,某书籍上说46层。参考实现的源代码,仔细数一数,应该是47层。
层次结构图.png5(前面)+
3(block1_module1)+3(block1_module2)+3(block1_module3)+
3(block2_module1)+5(block2_module2)+5(block2_module3)+5(block2_module4)+5(block2_module5)+
4(block3_module1)+3(block3_module2)+3(block3_module3)
= 47层
Tips:上面的这张层次结构图出现在某些帖子和书籍中,根据实现的源码,标注的红色方框处应该是5个卷积层,而不是4个。
二、详细网络结构
详细的网络结构及其子网络结构如下。
总体结构图 .png block1_module1.png block1_module2.png block1_module3.png block2_module1.png block2_module2.png block2_module3,4.png block2_module5.png block3_module1.png block3_module2.png block3_module3.png这么复杂精巧的网络结构是怎么设计出来的呢?是不断的进行数值实验吗?
还是靠爱... ...
网友评论