美文网首页
论文阅读笔记2

论文阅读笔记2

作者: 幽并游侠儿_1425 | 来源:发表于2020-07-11 13:42 被阅读0次

    文章标题:Pruning Convolutional Neural Networks for Resource Efficient Inference

    link
    论文中文讲解的链接:
    https://blog.csdn.net/hsqyc/article/details/84890718

    阅读目的:

    查看其中的neuron prune的具体做法
    更具体来说:

    • 如何找被prune掉的neuron
    • prune掉neuron之后要不要drop channel,如何drop channels

    参考链接:

    https://www.youtube.com/watch?v=zTzBSYdXKxk

    图示

    阅读笔记:
    本文针对通道裁剪提出了一种基于泰勒展开式(Taylor expansion)的通道重要程度评价方法。

    以公式和方法为单元阅读文章:


    公式1

    L0范数是指向量中非0元素的个数。Prune就是使得W中某些元素变为0。
    对公式1的理解,W'是W(原始参数)的子集。最理想的prune是找到的子集得出的cost和原本的一样。因此,这里用cose的改变量作为判断剪枝结果好坏的标准。
    但是一般的如果我们一个通道一个通道的都去裁剪一遍,然后比对前后cost然后判断这个通道要不要裁剪是不太现实的,因为太费时间了,要2的w次单通道裁剪比对,w是网络通道总数。所以这里我们用如图1所示的迭代裁剪方式。


    图1 公式2

    公式2中z表示feature map,*代表卷积操作,公式中右下角标代表layer层数,右上角标k代表通道数。这个R不知道什么意思。g不是1就是0,代表当前l层的第k个通道是否需要被裁剪。

    Oracle pruning:
    还是就是公式1的问题,只不过作者又提到那个差要不要加绝对值的问题。但是这种oracle评价通道重要性的方式操作起来太费时,所以作者自己提出了基于泰勒展开的新的评价方式。

    泰勒展开如何应用在通道评价上

    相关文章

      网友评论

          本文标题:论文阅读笔记2

          本文链接:https://www.haomeiwen.com/subject/gfibcktx.html