在通道注意力模块中,先使用1*1的卷积进行通道下采样,再进行通道下采样,比使用一层1*1卷积层要好。其原因是(1) 增加非线性,更好拟合通道复杂的相关性 (2)减少参数量和计算量,例如假设通道数为c,缩放倍数为r,则前者的参数量为1 * 1 * c * 1 * 1 * c / r + 1 * 1 * c / r * 1 * 1 * c = 2c^2 / r,而后者的参数量为1 * 1 * c * 1 * 1 * c = c^2,可以看到前者的参数量是后者的2 / r 倍。
在通道注意力模块中,先使用1*1的卷积进行通道下采样,再进行通道下采样,比使用一层1*1卷积层要好。其原因是(1) 增加非线性,更好拟合通道复杂的相关性 (2)减少参数量和计算量,例如假设通道数为c,缩放倍数为r,则前者的参数量为1 * 1 * c * 1 * 1 * c / r + 1 * 1 * c / r * 1 * 1 * c = 2c^2 / r,而后者的参数量为1 * 1 * c * 1 * 1 * c = c^2,可以看到前者的参数量是后者的2 / r 倍。
本文标题:通道注意力模块为什么用两层1 * 1的卷积
本文链接:https://www.haomeiwen.com/subject/vivdmctx.html
网友评论