美文网首页
《梯度下降法(固定步长)》

《梯度下降法(固定步长)》

作者: 可爱叽叽 | 来源:发表于2018-12-03 10:11 被阅读0次

“梯度下降法”:

(1)步长为0.1时的优化结果: 梯度收敛,但没有收敛到最小值。

(2)步长为100时的优化结果: 梯度发散。

(3)步长为1时的优化结果: 原地打转。

 (4)改变初始值,设置为4,步长仍为1: 依然会出现原地打转的情况。

 结论: 对于f(x)=x²-2x+1这个函数,如果采用固定步长的梯度下降法进行优化,步长要小于1,否则不论初始值是多少,问题都会发散或者原地打转。

换一个函数:f(x)=4x²-4x+1:

安全步长变为0.25:

总结:虽然固定步长的方法看上去简单直观,但是步长的选择一定要慎重,在实战中需要一定的技巧并且多尝试才能找到最合适的步长。

相关文章

  • 《梯度下降法(固定步长)》

    “梯度下降法”: (1)步长为0.1时的优化结果: 梯度收敛,但没有收敛到最小值。 (2)步长为100时的优化结果...

  • MF-SVD 相关博客

    随机梯度下降法步长的选择 - xiaolu的专栏 - 博客频道 - CSDN.NET SVD算法详解...

  • 第九章 最常用的模型优化算法——梯度下降法

    梯度下降法 超参 上面讲了梯度下降法,其中的α,又叫做步长,它决定了为了找到最小值点而尝试在目标函数上前进的步伐到...

  • 2020-08-19--梯度下降法01

    梯度下降法简介 多元线性回归中的梯度下降法 随机梯度下降法 梯度下降法 的调试 1.梯度下降法简介 不是一个机器学...

  • 梯度下降法

    梯度下降法 本文主要是为了讲解 梯度下降法 的原理和实践,至于什么是梯度下降法,他能做什么,相信百度一下你就都知道...

  • 学习笔记:两种梯度下降法的思考

    在看梯度下降法的时候最初还真没看明白两种梯度下降法的区别,于是昨天散步的时候认真的思考了一下。 两种梯度下降法分别...

  • 最速梯度下降

    梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的...

  • 神经网络优化2

    梯度下降 梯度下降法 批梯度下降法(Batch Gradient Descent,BGD)是最常用的梯度下降形式,...

  • 2019-03-17神经网络——optimizer

    神经网络优化算法,通常有三种:小批量梯度下降法,随机梯度下降法和批量梯度下降法。 小批量梯度下降法 适用于训练数据...

  • 2019-11-01第二课二周优化算法

    指数加权平均: 动量梯度下降法: RMSprop:和动量梯度下降法相似 adam优化算法:将动量梯度下降法和RMS...

网友评论

      本文标题:《梯度下降法(固定步长)》

      本文链接:https://www.haomeiwen.com/subject/vbbecqtx.html