Pointwise/ Depthwise/ Groupwise
这三种方法都是在标准卷积的基础上进行修改,以达到参数削减,同时保证准确率能够满足要求的目的
标准卷积示意图:
image.png
这里假设卷积层的输入通道数为 ,输出通道数为 ,假设采用 k * k 大小的卷积核来进行卷积,那么最终需要 个 尺寸为的卷积核,即这一个卷积层所需要的参数量为
Pointwise convoltion
Pointwise convolution从名字上来看为“逐点卷积”,即采用卷积核大小为 1 x 1 来对feature map 逐个点来进行卷积
- 最典型的应用是在何凯明提出的残差网络中的bottleneck中用来降维,现在以resnet-50的第2个block为例子,featuremap的channle数为256,最终输出的channel数为512
-
一般的building block形式:
feature_map -> 3x3,512 -> 3x3,512
其所需要的参数量为 ,将代入可得:3,538,944
-
bottleneck的形式为:
featuremap -> 1x1,128 -> 3x3,128, -> 1x1, 512
这里 1x1 的卷积核就是 pointwise convolution,其功能就是先将256通道降维成128通道,然后再升维到256,这样的做法可以减少参数量
其所需要的参数量为:,将代入可得:245760
二者相除,可以得到其参数量约为原来的1/14
-
DepthWise Convolution
Depthwise 从字面上来看即逐深度(channel)卷积,即在每个channel进行卷积
image.png如上图所示:
- 先在每个channel上以平面kernel(即深度为1)进行卷积,这样原始有多少个channel,输出就有多少个channel,即上图的从蓝色部分到紫色部分;
- 但是这样并没有利用到通道之间的关系,因此后面再加一个pointwise convolution,即在每个位置上用 的kernel来聚合每个通道之间的信息,即上图的从紫色部分到黄色部分
因此最后需要的参数量为:,比原来的参数量也大大减少。因为它对每一个通道都进行了学习(每个通道对应一个不同的过滤器),而不是所有通道对应同一个过滤器,得到的特征质量更佳。
Groupwise Convolution
Groupwise 从字面上来看即逐群进行卷积,这里的意思是把channel分成多个群,每一个群采用一种卷积核,如下图左所示:
image.png
假设将个channel均分成 g 份,这样得到了 g 个群,每个群采用的kernel为 ,因为有 g 个群,而我们最终输出为,因此我们为每个群都采用个不同的 个滤波器,然后把 g 个群产生的进行cat组合起来就得到
因此需要的参数为:
相当于参数量是原来的 1/g
网友评论