美文网首页
CNN Summaries

CNN Summaries

作者: 安大FA飞 | 来源:发表于2017-12-04 11:01 被阅读0次
    model author year structure
    LeNet Google 1986 2 layers convolution
    2 layers subsampling
    2 layers full-connected
    1 layer Gaussian connection
    AlxNet Alex Krizhevsky 2012 5 layers conv
    3 layers full-connected
    GoogleLeNet Alex Krizhevsky 2014 many convolution
    VGG 16 Google DeepMind 2015 13 layers convolution
    3 layers full-connected
    Deep Residual Learning 何凯明 2015 152 layers
    SqueezeNet Iandola 2016 2 layers convolution
    8 layers fire

    LeNet

    较早期的神经网络,用于识别数字,当年美国大多数银行就是用它来识别支票上面的手写数字的。
    链接:http://blog.csdn.net/geekmanong/article/details/50605340

    LeNet.png

    AlexNet

    2012 ILSVRC 大放异彩,神经网络的时代重启.
    链接:https://www.cnblogs.com/alexanderkun/p/6918045.html

    AlexNet.png

    GoogLeNet

    14年比赛冠军的model,这个model证明了一件事:用更多的卷积,更深的层次可以得到更好的结构。
    链接:http://blog.csdn.net/shuzfan/article/details/50738394#googlenet-incepetion-v1

    GoogleNet.png

    VGG 16

    VGG有很多个版本,也算是比较稳定和经典的model。它的特点也是连续conv多,计算量巨大
    链接:http://blog.csdn.net/errors_in_life/article/details/65950699

    VGG16.png

    Deep Residual Learning

    这个model是2015年底最新给出的,也是15年的ILSCRC比赛冠军。可以说是进一步将conv进行到底,其特殊之处在于设计了“bottleneck”形式的block(有跨越几层的直连)。最深的model采用的152层!
    链接:http://blog.csdn.net/xbinworld/article/details/45619685

    SqueezeNet

    模型小巧,引入了fire层 (squeeze and expand).准确率和 AlexNet 差不多,但是模型小了50x.
    链接:http://blog.csdn.net/shenxiaolu1984/article/details/51444525

    SqueezeNet.png

    相关文章

      网友评论

          本文标题:CNN Summaries

          本文链接:https://www.haomeiwen.com/subject/oebtixtx.html