我们都知道在2014年ILSVRC 比赛中GoogLeNet获得了冠军,其所用模型参数不足AlexNet(2012年冠军)的1/12,但性能却比AlexNet好不少。我们从其论文题目《Going deeper with convolutions》中的deeper也能明白它的贡献,deeper有两层含义,一是指其引入了一种新的结构“Inception module”,二就是其直接含义——网络深度(depth)的增加。今天聊聊GoogLeNet为什么也被称为InceptionNet?
InceptionNet是什么意思?
大家还记得多年前,那一部超级烧脑的电影《inception》吗?如果这个名字不熟悉,那么《盗梦空间》你应该还记得吧!
Dom Cobb(由莱昂纳多·迪卡普里奥饰演)与Robert Fischer(由Cillian Murphy饰演)对话时的那一句:“We need to go deeper”,可谓是引发高潮。讲述的就是如何在某人心中植入思想,寓意进行更深刻的感知。
我们知道AlexNet、VGG等结构都是通过增大网络的深度(层数)来获得更好的训练效果,所以早期设计网络的时候,自然也是走这样的路线,从LeNet的7层,到AlexNet的8层,VGG的16层,19层。不过层数的增加也会带来很多负作用,比如overfit、梯度消失、梯度爆炸等。
GoogLeNet是2014年的分类比赛冠军,网络达到了22层,参数量为5M,核心就是Inception模块,名字的来源主要便是上面的“inception”, 寓意一个比以前的网络都更深的网络,当然这实际上还是一个多尺度,“更宽”的网络设计,结构如下:
因此我们也把GoogLeNet称做InceptionNet,毕竟GoogLet是第一个提出InceptionNet的。
往期AI1000问
第一期:【AI-1000问】为什么深度学习图像分类的输入多是224*224
第二期:【AI-1000问】为什么LeNet5倒数第二个全连接层维度为84?
第三期:【AI-1000问】为什么OpenCV存储的图像格式是BGR呢?
第五期:【AI-1000问】人脸的4个方向,你还分的清楚吗?
第六期:【AI-1000问】你知道为什么GoogLeNet也被称为InceptionNet吗?
网友评论