[Paper Share - 2]Learning Transf

作者: 少侠阿朱 | 来源:发表于2017-11-27 22:35 被阅读259次

    导读
    论文出自Google Brain,是对前一篇论文的改进,前一篇文章讲述了用RNN去搜索一个最好的网络结构,而这篇文章认为之前的搜索空间太大,效果不好,所以改成搜索CNN的效果最好的conv cell。再用这些conv cell来构建一个更好的网络。
    链接:https://arxiv.org/abs/1707.07012

    1.Introduction

    在ImageNet上学习到的分类网络,其特征迁移到其他任务时,往往能获得更好的效果。但是如果将前一篇文章提出的NAS直接在ImageNet上训练,则计算量非常大。所以作者就想在CIFAR-10上训练得到一个比较好的网络,然后迁移到ImageNet上也能获得很好的效果。为了能完成这种迁移,作者设计一个与网络深度和图片大小无关的搜索空间。所以,作者觉得CNN网络都是由卷积层构成的,搜索最好的CNN结果可以退化为搜索一个好的CNN的Cell。

    2.Method

    因此作者重心放在设计一个Cell的搜索空间。文中提出两种Cell:Normal CellReduction Cell。Normal Cell是输入输出大小不变,而Reduction Cell的输出的height和width为原来的一半。网络则由两种不同的Cell叠加构成,如图:

    网络结构
    网络结构有两个可变参数,N是Normal Cell的叠加个数,另外一个是每个Cell里面的卷积核的个数 。这两个数并不是学习到的,而是人为指定的。后面作者分别用N=4和N=6做了实验。另外作者提到一个通识,为了使得某层的隐藏状态基本不变,我的理解是大概使得表征能力没有下降,所以在某一层的输出变小时,需要增加该层的滤波器个数,使得输出基本维持稳定。

    We use a common heuristic to double the number of filters in the output whenever the spatial activation size is reduced in order to maintain roughly constant hidden state dimension

    下面说说怎么用RNN控制器构建一个Cell。每个Cell有两个输入hi,hi-1,每个Cell包含5个Block,其中每个Block如下图右侧。其中每个Block需要进行五种操作,这五个操作由RNN控制器给出。如下图左侧,预测。


    Block的产生

    这五个操作从如下选项中选出。


    block的可选操作
    block构建好后,block的输出就可以作为下一个block构建时的可选hidden state输入。至于为什么一个Cell包含5个block,作者没有做实验,只是说他们用了这个效果比较好。
    由实验知道,最后效果最好的Cell是如下结构,作者称为NASNet-A。留意后面关于NASNet-A的实验。
    NASNet-A

    3.Reslut

    3.1 CIFAR-10上

    Tabel 1主要在CIFAR-10上和其他网络对比,在相当的计算复杂度上,都获得不错的表现,超越了shake-shake网络。


    Table1
    3.2ImageNet上

    作者强调他们仅仅是使用了CIFAR-10上的最优网络,从0开始在ImageNet上训练。并且作者发现这些预测的Cell之间没有residual connection,并且作者做实验发现手动加入residual connection并没有提升效果。

    在大平台上的对比

    上图是在大平台上的对比,可以看到NASNet-A基本上都是state-of-the-art。


    图5

    并且由图5可以知道相同的精度,NASNet-A的计算量更小。

    然后作者再在计算资源非常有限的平台,比如手机,上和其他网络进行对比,如下图:


    小平台上对比

    可以看到在资源有限的情况下,NASNet-A比MobileNet和ShuffleNet都要好。并且计算量相当。

    3.3网络在目标检测上的应用。

    作者继续把得到的网络并进Faster-RCNN的框架中,发无论在大平台还是像手机这种小平台上都比现有的网络效果更好。


    目标检测上的比较
    3.4搜索方法的有效性

    最后,作者还比较了强化学习和brute-force random search两个方法的有效性。从迭代20个epochs的模型效果看,强化学习明显更有效。
    至此,论文结束。


    好,今晚的论文分享到这里。下一期我们继续。Good Night,Everyone。
    ------2017.11.27于深圳


    转载注明下出处呗。http://www.jianshu.com/p/c3e7acdbee91

    相关文章

      网友评论

        本文标题:[Paper Share - 2]Learning Transf

        本文链接:https://www.haomeiwen.com/subject/zykjbxtx.html