美文网首页
为什么要使用1x1卷积

为什么要使用1x1卷积

作者: 瞎了吗 | 来源:发表于2019-07-09 23:04 被阅读0次

为什么要使用1x1卷积,哪些情况可以使用1x1卷积?
11卷积的主要作用有以下几点:
1、降维( dimension reductionality )。比如,一张500 * 500且厚度depth为100 的图片在20个filter上做11的卷积,那么结果的大小为500500
20。
2、加入非线性。卷积层之后经过激励层,11的卷积在前一层的学习表示上添加了非线性激励( non-linear activation ),提升网络的表达能力;可以在保持feature map尺度不变的(即不损失分辨率)的前提下大幅增加非线性特性(利用后接的非线性激活函数),把网络做的很deep。
当1
1卷积出现时,在大多数情况下它作用是升/降特征的维度,这里的维度指的是通道数(厚度),而不改变图片的宽和高。

相关文章

  • 为什么要使用1x1卷积

    为什么要使用1x1卷积,哪些情况可以使用1x1卷积?11卷积的主要作用有以下几点:1、降维( dimension ...

  • 关于不同卷积核大小的思考

    未经同意,不得转载 一、1x1卷积核的作用 (1)实现跨通道的交互和信息整合 使用1x1卷积核,其实就是对不同ch...

  • 7.cnn

    1.卷积神经网络详解 2.卷积神经网络简介 卷积神经网络由一个或多个卷积层和顶端的全连通层(也可以使用1x1的卷积...

  • ResNet 论文中的一个关于 1x1 conv 的细节

    早上拓哥考了我几个问题,记录一下: 拓: 立峰, 说一下 1x1 卷积层的作用。 我: 我第一次碰见1x1 卷积层...

  • PyTorch Convolution Layers

    卷积核的作用是什么? 1x1 卷积核在 Network in Network 中被提出了,主要作用有:1.压缩/提...

  • 1*1卷积核的作用

    1*1卷积核作用之我见 1X1卷积顾名思义就是卷积核的尺寸为1,不同与2维或3等卷积核,没有考虑在前一特征局部信息...

  • 1x1卷积核作用

    Pointwise Convolution,俗称叫做 1x1 卷积,简写为 PW,主要用于数据降维,减少参数量。1...

  • 卷积神经网络中用1*1 卷积有什么作用或者好处呢?

    1X1卷积核最开始是在颜水成论文 [1312.4400] Network In Network 中提出的,后来被[...

  • 1x1卷积核的作用

    引用来源:知乎-一文读懂卷积神经网络中的1x1卷积核 * 注:本篇文章只是对自己知识的总结,大部分内容来自上面原文...

  • 1x1卷积

    转自:1X1卷积核到底有什么作用呢?我来说说我的理解,我认为1×1的卷积大概有两个方面的作用吧:1. 实现跨通道的...

网友评论

      本文标题:为什么要使用1x1卷积

      本文链接:https://www.haomeiwen.com/subject/risqkctx.html