美文网首页
通道注意力模块为什么用两层1 * 1的卷积

通道注意力模块为什么用两层1 * 1的卷积

作者: 谁客户 | 来源:发表于2019-10-14 22:03 被阅读0次

在通道注意力模块中,先使用1*1的卷积进行通道下采样,再进行通道下采样,比使用一层1*1卷积层要好。其原因是(1) 增加非线性,更好拟合通道复杂的相关性 (2)减少参数量和计算量,例如假设通道数为c,缩放倍数为r,则前者的参数量为1 * 1 * c * 1 * 1 * c / r + 1 * 1 * c / r * 1 * 1 * c  = 2c^2 / r,而后者的参数量为1 * 1 * c * 1 * 1 * c = c^2,可以看到前者的参数量是后者的2 / r 倍。

相关文章

  • 通道注意力模块为什么用两层1 * 1的卷积

    在通道注意力模块中,先使用1*1的卷积进行通道下采样,再进行通道下采样,比使用一层1*1卷积层要好。其原因是(1)...

  • mxnet:1×1卷积层

    1.定义 1×1卷积层就是卷积窗口形状为1×1(kh=kw=1)的多通道卷积层. 由于使用了最小窗口,1×1卷积层...

  • 容易忘记的机器学习相关概念

    一、 关于w和b的数量计算。 1、卷积层 w = 卷积核 * 卷积核 * 上一层深度(通道数) b = 通道数 2...

  • TensorFlow学习笔记(10)tf.nn.conv2d浅析

    计算卷积 input:输入格式为[batch,长,宽,通道数]输入图片为例:batch:一次训练多少照片,1张,1...

  • 卷积、卷积核的维数、尺寸

    一、卷积核的维数 1、二维卷积核(2d) 2D卷积操作如图1所示,为了解释的更清楚,分别展示了单通道和多通道的操作...

  • 深度学习 | 特殊卷积的作用

    1.1*1卷积 1*1的卷积核的作用一: 那么1×1卷积核有什么作用呢,如果当前层和下一层都只有一个通道那么1×1...

  • mxnet:卷积层的多输入通道和多输出通道

    1.卷积层的多输入通道 当输入数据含有多个通道时,我们要构造一个与输入数据的通道数相等的卷积核,从而能够与含多通道...

  • 不同卷积核大小的总结

    不同卷积核大小:1、 1*1 卷积核的作用 实现跨通道的交互和信息整合 增加非线性特性 减少模型参数,降低计算量 ...

  • 深度学习-2

    1.卷积神经网络基础 主要包括:卷积层、池化层,以及一些参数的含义:padding、步幅、输入通道、输出通道。 二...

  • Pytorch中的Conv1d()函数

    Conv1d() in_channels(int) – 输入信号的通道。即为词向量的维度。2维RGB图像卷积中,为...

网友评论

      本文标题:通道注意力模块为什么用两层1 * 1的卷积

      本文链接:https://www.haomeiwen.com/subject/vivdmctx.html