美文网首页
1x1卷积核的作用

1x1卷积核的作用

作者: Even_Wang | 来源:发表于2018-07-24 00:20 被阅读0次

    引用来源:知乎-一文读懂卷积神经网络中的1x1卷积核

    * 注:本篇文章只是对自己知识的总结,大部分内容来自上面原文.

    卷积核作用和定义: 

    1. 卷积核(convolutional kernel ), 可以看作对某个局部的加权求和;它是对应局部感知,它的原理是在观察某个物体时我们既不能观察每个像素也不能一次观察整体,而是先从局部开始认识,这就对应了卷积。

    2. 卷积核的个数就对应输出的通道数(channels). 这里需要说明的是对于输入的每个通道,输出每个通道上的卷积核是不一样的。比如输入是28x28x192(WxDxK,K代表通道数),然后在3x3的卷积核,卷积通道数为128,那么卷积的参数有3x3x192x128,其中前两个对应的每个卷积里面的参数,后两个对应的卷积总的个数(一般理解为,卷积核的权值共享只在每个单独通道上有效,至于通道与通道间的对应的卷积核是独立不共享的,所以这里是192x128)。

    1x1卷积核的作用和定义:

    1. 降维/升维 : 当输入为6x6x32时,1x1卷积的形式是1x1x32,当只有一个1x1卷积核的时候,此时输出为6x6x1。此时便可以体会到1x1卷积的实质作用:降维。当1x1卷积核的个数小于输入channels数量时,即降维.

    注:1x1卷积一般只改变输出通道数(channels),而不改变输出的宽度和高度

    由于 1×1 并不会改变 height 和 width,改变通道的第一个最直观的结果,就是可以将原本的数据量进行增加或者减少。这里看其他文章或者博客中都称之为升维、降维。但我觉得维度并没有改变,改变的只是 height × width × channels 中的 channels 这一个维度的大小而已

    2. 增加非线性:  1*1卷积核,可以在保持feature map尺度不变的(即不损失分辨率)的前提下大幅增加非线性特性(利用后接的非线性激活函数),把网络做的很deep

    3. 跨通道信息交互(channal 的变换):使用1x1卷积核,实现降维和升维的操作其实就是channel间信息的线性组合变化,3x3,64channels的卷积核后面添加一个1x1,28channels的卷积核,就变成了3x3,28channels的卷积核,原来的64个channels就可以理解为跨通道线性组合变成了28channels,这就是通道间的信息交互

    1x1卷积核的实际应用:

    1.  GoogleNet Inception

    2. ResNet

    相关文章

      网友评论

          本文标题:1x1卷积核的作用

          本文链接:https://www.haomeiwen.com/subject/mybsmftx.html