使用pytorch进行网络修剪

作者: yanghedada | 来源:发表于2019-07-31 23:38 被阅读0次

    有一段时间没干正事了,早前一直没找到合适的pytorch的剪枝压缩代方法,现在看来,主要是姿势不对。这几天集中突击了一下网络压缩的pytorch剪枝,做一个记录。

    简述剪枝

    以前早前弄了一下caffe模型的压缩看这里,懵懵懂懂只知道这是深度学习模型做好之后的后处理工作,实际场景进行效率提升时候会用的到,是深度学习的一个大方向。

    先从这个小网络剪枝的demo开始说起。

    剪枝的主要流程

    1. 网络的重要程度评估

    对网络进行剪枝首先要知道该删除那些参数,对卷积层和全连接层的剪枝方法是不一样的,jacobgil提到到L1和L2方法,Oracle pruning等。

    • L1: w = |w|
    • L2: w = (w)^2

    具体可以看看他提到的几篇论文,我就不赘述了。使用这些方法得到网络权重的排名,按大小派,全连接就直接排序了,卷积就需要看了因为有些按通道有些是按层进行剪枝。具体看看这里有对比[Quantizing deep convolutional networks for efficient inference: A whitepaper]。demo就是安通道和L1范数进行剪枝的。评估之后可以得到网络同一层之间,通道的排序,统计模型所有conv layer的通道数,同时记录并返回它们的卷积层号和通道编号。
    主要由这两个函数进行操作。

    compute_rank()
    normalize_ranks_per_layer()
    

    2. 移除不重要的网络层

    移除不重要的网络层是剪枝的理所当然的事,但是也是最复杂的一个操作。受限于当前的深度学习框架的限制,小白们对这种取参数和新建网路层这种复杂手艺表示看不懂。caffe剪枝可以看看这里L1剪枝,pytorch和caffe剪枝不一样,因为caffe的结构,是过文件进行编写的,容易查看。pytorch的模型结构,就看个人的手艺了,不是自己写的估计够呛啊。
    和caffe的流程类似,通过建立一个新层,新层的输入和输出的数量通过移除的比例确定,参数随机初始化,把老层的参数进行copy。copy的手法就是,通过确认遍历整个模型参数,copy重要的参数索引,不copy重要的参数索引。之后把新的层和新的参数,重新装入net中。

    • 类似:
    net.feature = conv
    
    • demo中的主要参数函数为
    prune()
    prune_conv_layer()
    

    3.微调网络

    和普通的训练没什么差别。

    4. 其他

    已经有大神把resnet18的剪枝方法,发出来了,提到BatchNorm层通道数修改,当所有卷积层剪枝结束,依据邻近上一个卷积层输出通道数,通过BatchNorm层继承方式,它需修改成同样的通道数。但是通用的方法是把BatchNorm和上一层conv进行融合,其中会直接删除一些结构,需要一点时间,好好看看才能实现。

    参考:
    大佬 jacobgil
    对 resnet18进行剪枝
    小网络剪枝的demo
    pytorch基于卷积层通道剪枝的方法
    基于Pytorch的卷积神经网络剪枝

    相关文章

      网友评论

        本文标题:使用pytorch进行网络修剪

        本文链接:https://www.haomeiwen.com/subject/hgyxdctx.html