美文网首页
优化算法

优化算法

作者: BlueFishMan | 来源:发表于2018-07-11 10:07 被阅读0次

SGD

随机梯度下降法是梯度下降法的一个小变形,就是每次使用一批(batch)数据进行梯度的计算,而不是计算全部数据的梯度,因为现在深度学习的数据量都特别大,所以每次都计算所有数据的梯度是不现实的,这样会导致运算时间特别长,同时每次都计算全部的梯度还失去了一些随机性,容易陷入局部误差,所以使用随机梯度下降法可能每次都不是朝着真正最小的方向,但是这样反而容易跳出局部极小点。

Momentum

在随机梯度下降的同时,增加动量(Momentum)。

Adagrad

自适应学习率(adaptive)的方法。

RMSprop

自适应学习率的改进方法。

Adam

RMSprop + Momentum。

Conclusion

  1. 默认使用Adam。
  2. 值得尝试SGD+Momentum。

相关文章

  • 优化方法总结

    优化算法框架 神经网络模型中有多种优化算法,优化算法的作用用来优化更新参数。对于优化算法而言,主要的框架如下。参数...

  • 优化器

    优化器(optim) 优化算法模块(torch.optim) torch.optim 实现了丰富的优化算法,包括S...

  • 8. 优化案例

    1. 十大经典算法及其优化2.几种常见的优化算法3. 经验之谈:优化算法两句话精炼总结

  • 冒泡算法

    一、常用冒泡算法 二、优化冒泡算法

  • sgd(params, lr, batch_size)

    定义优化算法

  • Task07

    一 优化算法进阶 一个常用优化算法AdaDelta算法也针对AdaGrad算法在迭代后期可能较难找到有用解的问题做...

  • 爬山算法

    爬山算法(Hill Climbing)是一种最简单的优化算法(优化算法就是找最大或者最小值),这种算法是通过模拟人...

  • 玩转算法面试(一)

    1算法面试意义 2 3 4 优化算法

  • 高性能编程

    包含: Android内存优化,算法优化,Android的界面优化,Android指令级优化,以及Android应...

  • Transformer量化笔记

    前言 AI芯片(这里只谈FPGA芯片用于神经网络加速)的优化主要有三个方面:算法优化,编译器优化以及硬件优化。算法...

网友评论

      本文标题:优化算法

      本文链接:https://www.haomeiwen.com/subject/iagcpftx.html