美文网首页
1*1卷积核的作用

1*1卷积核的作用

作者: geekboys | 来源:发表于2020-03-12 00:36 被阅读0次

1*1卷积核作用之我见

1X1卷积顾名思义就是卷积核的尺寸为1,不同与2维或3等卷积核,没有考虑在前一特征局部信息之间的关系。这里首先回顾一下卷积核的一些概念:

卷积核:可以看作对某个局部加权求和,它是对应局部感知的。这是是CNN的三大特征之一的局部感知,它的原理类似于盲人摸象,或者我们观察物体的时我们即不能观察每个像素也不能一次观察整体,而是先从局部开始认识,卷积核的大小一般有11,33,5*5的尺寸(一般为奇数,不过现在也有人用偶数了)。卷积核的个数对应输出的通道数(channels),这里需要说明的是对于输入的每个通道,输出通道上的卷积核是不一样的。比如输入是28x28x192(WxDxK,K代表通道数),然后在3x3的卷积核,卷积通道数为128,那么卷积的参数为3x3x192x128,其中前两个对应的每个卷积里面的参数,后两个对应的卷积总的个数。

这里要盗用吴恩达老师的一张图片来说明1*1卷积是怎样计算的:


1*1卷积核

从上图中可以看出当通道数目为1的卷积核相当于直接在原图像的像素上进行加权求和,这时候只能起到升维的作用,这样的操作是没有太大的意义的。

1X1卷积核的作用


由于1X1的卷积核并不改变图片的长和宽,它只能在图片的通道上进行改变改变,改变通道的一个比较直观的结果,就是可以将原本的数据量进行增加或者减少。所以大家都称为它的作用就是升维降维。但是我个人认为维度并没有改变,改变的只是h.w.channels中的channels这一个维度大小而已。实际上1*1卷积我认为本身就是一个全连接计算,通过下面的示意图我们也可以清楚的看到1X1卷积核主要做的操作。
1*1卷积
此外它还能增加非线性的作用,在保持feature map尺度不变的(即不损失分辨率)的前提下大幅增加非线性特性,这样我们就可以把网络做的很deep。
所以这里归纳为1X1卷积核主要有如下的四个作用:
  • 1 通道方向上的小型神经网络
  • 2 网中网(Network in Network)
  • 3 调整特征映射数量
  • 4 整合通道方向

所以这里归纳一句就是1X1卷积核主要在通道上进行操作!

相关文章

  • PyTorch Convolution Layers

    卷积核的作用是什么? 1x1 卷积核在 Network in Network 中被提出了,主要作用有:1.压缩/提...

  • 1*1卷积核的作用

    1*1卷积核作用之我见 1X1卷积顾名思义就是卷积核的尺寸为1,不同与2维或3等卷积核,没有考虑在前一特征局部信息...

  • 深度学习 | 特殊卷积的作用

    1.1*1卷积 1*1的卷积核的作用一: 那么1×1卷积核有什么作用呢,如果当前层和下一层都只有一个通道那么1×1...

  • 不同卷积核大小的总结

    不同卷积核大小:1、 1*1 卷积核的作用 实现跨通道的交互和信息整合 增加非线性特性 减少模型参数,降低计算量 ...

  • 图像处理当中的一些知识point

    1.卷积核 详细内容看原文地址:原文地址卷积神经网络中卷积核的作用是提取图像更高维的特征,一个卷积核代表一种特征提...

  • 关于不同卷积核大小的思考

    未经同意,不得转载 一、1x1卷积核的作用 (1)实现跨通道的交互和信息整合 使用1x1卷积核,其实就是对不同ch...

  • 1*1卷积核的作用

    降低特征图的维度,同时降低参数的数量,降低学习的时间。

  • 1x1卷积

    转自:1X1卷积核到底有什么作用呢?我来说说我的理解,我认为1×1的卷积大概有两个方面的作用吧:1. 实现跨通道的...

  • 反卷积(转 )

    转 卷积神经网络CNN(1)——图像卷积与反卷积(后卷积,转置卷积) 1. 图像卷积 卷积的时候需要对卷积核进行1...

  • filter concat理解

    首先卷积 1*1,3*3,5*5,的output size 只与step有关,与卷积核的大小无关。图像经过的卷积核...

网友评论

      本文标题:1*1卷积核的作用

      本文链接:https://www.haomeiwen.com/subject/lnzkjhtx.html