美文网首页
卷积参数共享原则&池化层(Pooling)原理

卷积参数共享原则&池化层(Pooling)原理

作者: 首席科学家 | 来源:发表于2018-07-22 09:23 被阅读0次

    说在前头

    理解不清楚的同学,可以看视频教程(下篇)

    资料下载地址

    1-1感受卷积神经网络的强大14:55

    1-2卷积层详解12:53

    1-3卷积计算流程12:30

    1-4卷积核心参数分析13:13

    1-5卷积参数共享原则08:09

    1-6池化层(Pooling)原理08:24

    1-7卷积神经网络反向传播原理14:44

    1-8实现卷积层的前向传播与反向传播10:19

    1-9实现pooling层的前向传播与反向传播12:00

    1-10经典卷及网络架构实例20:35

    1-11RNN网络结枘08:39

    1-12python实现RNN算法33:46

    1-13LSTM网络结构简介12:36

    1-14分类与回归(Location)任务应用详解33:30

    1-15物休检实例33:16

    1-16如何巧妙设计网络结枘21:52

    1-17训练技巧之数据增强12.20

    1-18训练技巧之Transfer Learning11:09

    1-19深度学习框架caffe简介20:43

    2-0深度学习框架caffe训练过程20:39

    2-1深度学习框架caffe接囗使用实例

    全连接的结构有没有什么弊端呢?

        答:参数过于多,无论从效果还是效率上来说,都存在着很大的问题。

    卷积神经网路有一个重要的特性,就是他会做一个权重的共享。

    权重共享:每个特征图上,每个点,都进行权重共享。

    权重共享的特性:如上图所示,每个特征图上,只有5*5*3个特性,一共75个参数就OK。还有一个偏置,一共76个参数。如果提取了十个特征图,那么只需要760个参数就可以了,相比传统的神经网络来说,省了太多。

    池化层

    假设我们现在有这样一个特征图,大小为224*224*64

    池化层的意思就是选出一个窗口,之后将窗口里的特征进行压缩。

    压缩方式也比较简单,一般来说有两种压缩方式,一种是mean方式,一种是max方式。

    MAX POOLING 例子   

    现在我们可以完整的看一下卷积神经网络的工作流程。


    step1:假设小车是我们的一个输入。

    step2:将我们输入的图像进行一次卷积

    step3: 用RELU函数进行激活

    step4:将我们输入的图像进行一次卷积

    step5:用RELU函数进行激活

    step6:之后进行池化层操作

    通过不断的卷积核不断的池化操作,要对特征不断的进行提取。

    最后我们拿到了最后的特征FC,我们用最后的特征去做一些任务。

    相关文章

      网友评论

          本文标题:卷积参数共享原则&池化层(Pooling)原理

          本文链接:https://www.haomeiwen.com/subject/iwclmftx.html