美文网首页
Residual Attention Network for I

Residual Attention Network for I

作者: yanghedada | 来源:发表于2019-01-08 21:02 被阅读9次

    这是CVPR的文章,讨论关于注意力机制在分类的应用。
    paper
    github
    容易理解的代码

    通过使用sigmoid函数对主干网络构建mask,在特征上添加掩码,使网络更加关注主要的特征。

    图中Attention Module是注意力模块。在Attention Module模块中上面的通道是主干网络,下面是注意力mask网络。为保留原有的特征,mask和主干网络的融合有两个操作。首先,通过mask和主干网络的进行点积预算,然后,把点积运算的结果和主干网络相加,得到新的特征。

    在两个注意力模块之间有残差块进行连接。

    使用encoder-decoder结构可以快速获取全局的信息。

    实验三种掩码激活函数:

    函数发现其实越简单越好,最好的是sigmoid函数:

    使用最少参数,就可以达到和ResNet-152同样的精度:

    相关文章

      网友评论

          本文标题:Residual Attention Network for I

          本文链接:https://www.haomeiwen.com/subject/gzabrqtx.html