一、分组卷积
分组卷积即将输入的feature maps分成不同的组(沿channel维度进行分组),然后对不同的组分别进行卷积操作,即每一个卷积核至于输入的feature maps的其中一组进行连接,而普通的卷积操作是与所有的feature maps进行连接计算。
分组数k越多,卷积操作的总参数量和总计算量就越少(减少k倍)。然而分组卷积有一个致命的缺点就是不同分组的通道间减少了信息流通,即输出的feature maps只考虑了输入特征的部分信息,因此在实际应用的时候会在分组卷积之后进行信息融合操作。
(一)、ShuffleNet
image.png如上图所示,图a是一般的group convolution的实现效果,其造成的问题是,输出通道只和输入的某些通道有关,导致全局信息 流通不畅,网络表达能力不足。图b就是shufflenet结构,即通过均匀排列,把group convolution后的feature map按通道进行均匀混合,这样就可以更好的获取全局信息了。 图c是操作后的等价效果图。在分组卷积的时候,每一个卷积核操作的通道数减少,所以可以大量减少计算量。
https://zhuanlan.zhihu.com/p/51566209
(二)、MobileNet
image.png image.png如上图所示,mobilenet采用了depthwise separable convolutions的思想,采用depthwise (或叫channelwise)和1x1 pointwise的方法进行分解卷积。其中depthwise separable convolutions即对每一个通道进行卷积操作,可以看成是每组只有一个通道的分组卷积,最后使用开销较小的1x1卷积进行通道融合,可以大大减少计算量。
二、分解卷积
分解卷积,即将普通的kxk卷积分解为kx1和1xk卷积,通过这种方式可以在感受野相同的时候大量减少计算量,同时也减少了参数量,在某种程度上可以看成是使用2k个参数模拟k*k个参数的卷积效果,从而造成网络的容量减小,但是可以在较少损失精度的前提下,达到网络加速的效果。
(一)、NonBottleNeck
image.png上图是在图像语义分割任务上取得非常好的效果的ERFNet[3]的主要模块,称为NonBottleNeck结构借鉴自ResNet[4]中的Non-Bottleneck结构,相应改进为使用分解卷积替换标准卷积,这样可以减少一定的参数和计算量,使网络更趋近于efficiency。
(二)Bottleneck结构
image.png上图为ENet[5]中的Bottleneck结构,借鉴自ResNet中的Bottleneck结构,主要是通过1x1卷积进行降维和升维,能在一定程度上能够减少计算量和参数量。其中1x1卷积操作的参数量和计算量少,使用其进行网络的降维和升维操作(减少或者增加通道数)的开销比较小,从而能够达到网络加速的目的。
三、C.Relu结构
image.pngC/ReLU来源于CNNs中间激活模式引发的输出节点倾向于是"配对的",一个节点激活是另一个节点的相反面,即其中一半通道的特征是可以通过另外一半通道的特征生成的。
根据这个观察,C.ReLU减少一半输出通道(output channels)的数量,然后通过其中一半通道的特征生成另一半特征。
这里使用 negation使其变成双倍,最后通过scale操作使得每个channel(通道)的斜率和激活阈值与其相反的channel不同。
四、SqueezeNet结构
image.pngSqueezeNet思想非常简单,就是将原来简单的一层conv层变成两层:squeeze层+expand层,各自带上Relu激活层。在squeeze层里面全是1x1的卷积kernel,数量记为S11;在expand层里面有1x1和3x3的卷积kernel,数量分别记为E11和E33,要求S11 < input map number。expand层之后将 1x1和3x3的卷积output feature maps在channel维度拼接起来。
https://zhuanlan.zhihu.com/p/31558773
五、MobilNet结构
https://zhuanlan.zhihu.com/p/31551004
经典轻量级网络
https://zhuanlan.zhihu.com/p/45496826
一、SqueezeNet UCB
11降维度
11+3*3提取特征
https://zhuanlan.zhihu.com/p/78811205
https://zhuanlan.zhihu.com/p/59647641
https://zhuanlan.zhihu.com/p/49465950
二、mobilenet各顾各
深度可分离卷积
channel = 1的卷积
h,w = 1的卷积
https://zhuanlan.zhihu.com/p/70703846
https://zhuanlan.zhihu.com/p/199328952
https://zhuanlan.zhihu.com/p/80177088
三、shufflenet旷视
h,w = 1的卷积 分组卷积,shuffle
https://zhuanlan.zhihu.com/p/51566209
https://zhuanlan.zhihu.com/p/37919669
https://zhuanlan.zhihu.com/p/50809990
https://zhuanlan.zhihu.com/p/48261931
四、EfficientNet、EfficientDet google brain
https://zhuanlan.zhihu.com/p/137089135
https://zhuanlan.zhihu.com/p/67834114
https://zhuanlan.zhihu.com/p/361947957
五、condensenet
https://blog.csdn.net/u014380165/article/details/78747711
六、GhostNet华为
https://zhuanlan.zhihu.com/p/109325275
https://zhuanlan.zhihu.com/p/148856494
https://zhuanlan.zhihu.com/p/121757597
七、NAS搜索(DARTS,ENAS)
(一)Mnasnet
https://zhuanlan.zhihu.com/p/103802311
网友评论