美文网首页程序员
2020-CVPR-通道注意力超强改进-ECANet

2020-CVPR-通道注意力超强改进-ECANet

作者: 教训小磊 | 来源:发表于2020-07-09 03:44 被阅读0次

论文题名:《ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks》 

arxiv: https://arxiv.org/abs/1910.03151

github: https://github.com/BangguWu/ECANet

       自从SENet首次提出一种有效的通道注意力学习机制,并取得了良好的效果以来,关于注意力机制的文章可谓遍地开花,同时这种方法也被证明是提高深度卷积神经网络(Convolution Neural Network,CNN)潜在的一种手段。

      本文ECA-Net通过剖析SE模块,分别证明了避免降维和适当的跨通道交互对于学习高性能和高效率的通道注意力是重要的,并在此基础上提出了一种极轻量的通道注意力模块,该模块增加的模型复杂度小,提升效果显著。

       首先我们先来看看SE模块的组成,如下图1所示,SE模块主要由全局平均池化层(Golbal Average Pooling,GAP)、全连接层(Fully Connected,FC)和Sigmoid函数组成。其中2个FC层的作用是为了捕捉非线性跨通道交互信息(Relu层算在FC层里面),并且第一层FC用来降维以控制模型的复杂性。而本文的改进点就在FC层这里。

图1 标准SE模块组成

     本文主要从SE模块中维度缩减和跨通道信息交互这两方面入手,作者认为前者对通道注意力机制的预测带来了副作用,它对捕获所有通道的依赖关系是低效并且是不必要的,而后者作者认为对CNN网络的性能的提升起了非常大的作用。ECA模块的具体结构和它的Pytorch代码如下图2所示。

图2   ECA模块的具体结构和它的Pytorch代码

     ECA模块的思想是非常简单的,去除了原来SE模块中的FC层,直接在GAP之后的特征上通过一个可以权重共享的1D卷积进行学习,其中1D卷积涉及到超参k,就是卷积核尺寸,它代表了局部跨通道交互的覆盖率。本人一开始在看ECA模块的结构图时是有些不解的,特别是看到一开始的5条连线对应后边的第3个神经元,在想为啥不是对应第1个神经元?这张结构图是我在理解ECA思想后所修改的,主要是没有仔细看旁边的代码,这里边涉及到padding问题,所以红框才是k=5(其中红框里的2个元素来自int(5/2))是GAP特征实际的样子,不然就说不通了。作者的这个使用1D卷积代替FC层的方法,也是受到了分组卷积思想的启发,如下图3所示。

图3 特征矩阵

         1D卷积最初的特征矩阵如上图3所示,可以看到1D卷积的权重之间是交错的,即是相互跨通道的,同时又是一组一组存在的,一组中权重的多少取决于卷积核k的大小。作者为了进一步提升网络性能,使用了卷积的共享权重的方法,即每一组的权重完全一样,这就极大地减少了参数量,从原来地k\cdot C(其中C为通道数)缩减到k。

        正如之前提到的1D卷积核k是一个超惨,对于不同数量地通道数C应有不同的大小变化才行,所以本文作者进一步提出了一种自适应选择1D卷积核大小地方法。作者认为k和C之间有一种映射:C=\phi(k) =2^(r*k-b)   ,(是2的r*k-b次方,这个公式编辑器有问题),其中是2的次方考虑到的是通道数量的设计一般都是以2的次方设计的,这样对本文模块的k的计算就有好一些。并且本文作者r和b分别取2和1,这是实验结果。最后通过下面的公式就能对不同的通道数量自适应选择卷积核大小了。

图4 自适应计算k

总体来说本文的切入点非常的好,基本一针见血,就追着通道缩减和跨通道交互不放,然后提出自己的解决办法。这篇文章的方法在编程方面也是非常容易实现的,这对于我以后做人脸识别方面的实验提供了非常大的帮助。同时通过这篇文章,我找到了诸多关于注意力机制方面的相关文章,接下去可以在这方面探索一番了!!!!

相关文章

  • 2020-CVPR-通道注意力超强改进-ECANet

    论文题名:《ECA-Net: Efficient Channel Attention for Deep Convo...

  • 晨读感悟:这才是你近期最应该掌握的方法

    n 今天我们分享的书是《为什么精英都有超强注意力》,越是精英阶层的人,对自己越是“狠”,更具备超强注意力,他们是怎...

  • pytorch中加入注意力机制(CBAM)

    第一步:找到ResNet源代码在里面添加通道注意力机制和空间注意力机制所需库 通道注意力机制 空间注意力机制 在R...

  • 超强注意力训练

    你有这样的痛苦吗? @老师 请问我儿子上课时思想不集中,做作业拖拖拉拉,这种情况怎么处理呢? @老师 我家的...

  • Elaine的【宇宙能量播报】

    【宇宙能量播报】 Kin—244黄色行星的种子 今天是行动力超强,显现成果超强的一天当然,也会把注意力放在一些细节...

  • 专注力的秘密㊙️

    专注力的秘密 超强大脑 超强大脑SUPERBRAIN 专注力又称注意力,指一个人专心于某一事物、或活动时的心理状态...

  • 通道注意力模块为什么用两层1 * 1的卷积

    在通道注意力模块中,先使用1*1的卷积进行通道下采样,再进行通道下采样,比使用一层1*1卷积层要好。其原因是(1)...

  • 这个如此简单的动作,能做到的人有几个?

    工作中想要事半功倍,就要有超强的注意力。在这个手机不离手的时代,想要集中注意力,可谓是难上加难。 而《深度工作》这...

  • 要点:注意力是人最宝贵的财富 概念:注意力是视觉、听觉、触觉、嗅觉和味觉五大信息通道对客观事物的关注能力 注意力是...

  • 有没有什么方法可以让学习能力超强?

    学习能力超强,背后的功底是“长时间集中注意力的能力”。那么长时间集中注意力的能力,可以训练吗?答案是肯定的。 训练...

网友评论

    本文标题:2020-CVPR-通道注意力超强改进-ECANet

    本文链接:https://www.haomeiwen.com/subject/fdprcktx.html