一、ACNet: Strengthening the Kernel Skeletons for Powerful CNN via Asymmetric Convolution Blocks
研究问题:
增强卷积的表达能力
实现方式:

如图所示,利用了卷积的可加性,将一个普通的3*3卷积用一个3*3卷积、1*3卷积以及3*1卷积来代替,变相的增加了卷积的表达能力,在测试时,将卷积还原为原始卷积,可以使得网络性能有一定的提高。
二、RandAugment: Practical automated data augmentation with a reduced search space
研究问题:
将数据增强集成,成为可由超参数进行控制,可根据不同的任务进行修改。
实现方式:

设置两个超参数,一个控制变换应用的次数,一个控制变换的幅值。
三、GhostNet: More Features from Cheap Operations
研究问题:
CNN中随着卷积的进行,通道数越来越多,网络的性能就依赖于这些高度冗余的特征图,以往的卷积方式计算较为复杂,因此本文希望找到一种计算更为简单的替代方式。
实现方式:


首先分析基本结构,ghost模块分为两步操作,第一步先使用卷积操作,减少了通道,为的是减少运算量,第二步较为巧妙,对每个通道的特征图都进行了卷积操作,生成个,
个特征图共生成
,在堆叠上原来的特征图,通道数为
,总共生成的通道数为
,达到了跟普通卷积一样的结果,但没有使用逐点卷积,大大减少了计算量。
网络的设计借鉴了MobileNet网络,也是一种倒置残差结构,值得注意的是,文章也引入了一个宽度因子来控制通道的层数,用来减少运算量。总的来说,性能不逊色于MobileNet网络与ShuffleNet网络。
网友评论