美文网首页
深度学习模型训练的加速

深度学习模型训练的加速

作者: 冯凯onmyway | 来源:发表于2017-11-22 13:19 被阅读0次

    1 硬件加速

    采用GPU。

    GPU多机多卡。

    2 框架加速

    在同样的模型,同样的配置下,采用Tensorflow ,caffe,mxnet或者CNTK的速度也不一样。具体性能可以参考这篇文章http://mp.weixin.qq.com/s/Im2JWJYGBQbOfzikFrEMsA,相比来说caffe在多机多卡的GPU环境下,加速更明显。

    3 模型选取

    当下比较经典的深度学习网络包括AlexNet,GoogleNet(Inception),ResNet等。模型的层数越多,对硬件的要求越高,受限于GPU的缓存,每次mini batch的数量随层次增多而变少,训练时间越久,效果越差。  最近多伦多大学新提出的RevNet解决了这个问题,可以参考http://mp.weixin.qq.com/s/sLrHUr7Qgp2itx5PBFkNuA。

    如果是自己搭建模型,在梯度下降的算法当年可以考虑Adam梯度下降。

    4 超参数

    选取合适的初始值。

    学习率递减。

    学习率递减的几种公式

    5 数据策略

    数据归一化。在梯度下降算法中,数据尺度的不统一,会导致小尺度维度的梯度下降缓慢,延长迭代轮数。为此,可以采用减去平均值,除以方差的方式标准化输入。

    吴恩达深度学习教程

    当样本量足够大时,使用mini-batch代替batch。mini-batch一般选取64-512,1024比较少见。最好是2的n次方,而且要和CPU/GPU相匹配。

    未完待续

    相关文章

      网友评论

          本文标题:深度学习模型训练的加速

          本文链接:https://www.haomeiwen.com/subject/oxbnvxtx.html