美文网首页机器学习
ResNet到底深不深?

ResNet到底深不深?

作者: Traphix | 来源:发表于2016-08-26 17:15 被阅读2168次

今年5月份的时候,Cornell University的几个人研究了ResNet,发现它所谓的“超深网络”只是个噱头,文章如下:

文章的主题是:

A residual network is not a single ultra-deep network, but instead is a very large implicit ensemble of many networks.

意思是ResNet并不深,它本质上是一堆浅层网络的集合。

这不是打Kaiming He的脸吗?Kaiming He肯定看了这篇文章,不知道心里会想什么,没找到他的回应。

然后作者就分析了ResNet的网络结构,如下图:

ResNet展开形式

意思是说,一个拥有三个block的ResNet可以展开为上右图的形式,仔细琢磨琢磨,还真是这么回事儿。ResNet就像是搭积木,在一个主干网络的旁路上,插入了各种各样的积木网络,这种网络集合的效果类似于Dropout,或者更恰当的说, 类似于多个网络的ensemble形态,所以精度很高。

为了佐证“ResNet并不深”的这个观点,作者就把ResNet拆了,分析了不完整网络的识别精度(去掉某个block),如下图:

网络不完整性测试

果然不出作者所料,少个block对网络影响甚微,这就好比一堵墙拆个砖头也不至于塌掉。与之相比,VGGNet如果去点东西,识别率惨不忍睹,因为ResNet是多线的,而VGG是单线的。

看下图就明白了:

单线和多线网络

多线网络里,把f2 block删了,网络还是通的,但如果把单线网络的f2删了,网络就断了。

另外还得说一下,ResNet并没有解决训练梯度消散的问题,它的主干网的反向梯度依然随着深度增大而变得越来越小,只不过ResNet有很多 identity skip connection,这些 connection 能把梯度原封不动的反向传回去,从而掩盖了梯度消散问题。

最后,继网络的“深度”和“宽度”两项指标之后,作者根据网络包含的“子网络”数量,提出了一个新指标——multiplicity。新指标是很隐蔽的,不容易分析,期待作者的下一篇论文。

感想


随着神经网络研究的加深,感觉人类正在逐渐解开生物神经网络的面纱。Andreas Veit提出的新指标——multiplicity,似乎与人类神经网络有脱不开的干系,或许人脑就是利用多个“子网络”搭出一个复杂的网络,它有主干,有旁支,有各种复杂的东西。简单的前向网络和回环网络还是太简单,还是需要更复杂的结构才能得到更好的效果。

相关文章

  • ResNet到底深不深?

    今年5月份的时候,Cornell University的几个人研究了ResNet,发现它所谓的“超深网络”只是个噱...

  • keras 实现 pytorch resnet.py

    keras resnet Pytorch resnet

  • 感情不深,何必深根

    经常觉得自己总是对别人真心真意,而别人呢,想到你时,会知道你的存在。想不到你时,不知你就在眼前。这种关系,需要维持...

  • 大海不深,相思才深

    有人说,遇见你,花光了我所有的运气。也有人说,遇见你,花光 了我所有的流年。 很久很久以前,在大海的最深处住着七只...

  • 繁华不深,落寞才深

    繁华笑语争春, 且留一枝独问。

  • Resnet

    Ryan Dahl的tensorflow-resnet源码官方源码ResNet学习整体了解ResNet,论文翻译R...

  • torchvision.models.resnet.resnet

    随便一个位置 跳转到resnet50 _resnet ResNet类 Bottleneck 瓶颈模块 图片原始来自...

  • 十分钟一起学会ResNet残差网络

    目录 深层次网络训练瓶颈:梯度消失,网络退化 ResNet简介 ResNet解决深度网络瓶颈的魔力 ResNet使...

  • 情不如不深

    若情深缘浅 为情不深缘深 高贵太多

  • 机巧与疏狂

    涉世浅,点染亦浅;历事深,机械亦深。故君子与其练达,不若朴鲁;与其曲谨,不若疏狂。涉世不深的人,阅历不深,点染的不...

网友评论

    本文标题:ResNet到底深不深?

    本文链接:https://www.haomeiwen.com/subject/ftjzsttx.html