美文网首页
最速梯度下降

最速梯度下降

作者: 无涯2016 | 来源:发表于2019-06-27 09:28 被阅读0次

梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的速度也未必是最快的。梯度下降法的优化思想是用当前位置负梯度方向作为搜索方向,因为该方向为当前位置的最快下降方向,所以也被称为是”最速下降法”。最速下降法越接近目标值,步长越小,前进越慢。

最速下降法越接近目标值,步长越小,前进越慢。

[if !vml]

[endif]梯度下降法的搜索迭代示意图如图所示

梯度下降法在接近最优解的区域收敛速度明显变慢,利用梯度下降法求解需要很多次的迭代。实际上收敛速度并不快。 其主要原因是每次迭代后下一次的搜索方向总是和前一次相互垂直,产生锯齿现象,使得收敛速度较为缓慢。

最速下降法的一种简单形式是:

[if !vml]

[endif]

在机器学习中,基于基本的梯度下降法发展了两种梯度下降方法,分别为随机梯度下降法和批量梯度下降法。

1)批量梯度下降法(Batch Gradient Descent,BGD),是梯度下降的batch版本

[if !vml]

[endif][if !vml]

[endif]

2)随机梯度下降(Stochastic Gradient Descent , SGD)。

对于训练数据集,我们首先将其分成n个batch,每个batch包含m个样本。我们每次更新都利用一个batch的数据,而非整个训练集。即:

[if !vml]

[endif]

随机梯度下降是通过每个样本来迭代更新一次,如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本,就已经将theta迭代到最优解了,对比上面的批量梯度下降,迭代一次需要用到十几万训练样本,一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次。但是,SGD伴随的一个问题是噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向。

优点:

当训练数据太多时,利用整个数据集更新往往时间上不显示。batch的方法可以减少机器的压力,并且可以更快地收敛。

当训练集有很多冗余时(类似的样本出现多次),batch方法收敛更快。以一个极端情况为例,若训练集前一半和后一半梯度相同。那么如果前一半作为一个batch,后一半作为另一个batch,那么在一次遍历训练集时,batch的方法向最优解前进两个step,而整体的方法只前进一个step。

随机梯度下降每次迭代只使用一个样本,迭代一次计算量为n2,当样本个数m很大的时候,随机梯度下降迭代一次的速度要远高于批量梯度下降方法。两者的关系可以这样理解:随机梯度下降方法以损失很小的一部分精确度和增加一定数量的迭代次数为代价,换取了总体的优化效率的提升。增加的迭代次数远远小于样本的数量。

对批量梯度下降法和随机梯度下降法的总结:

批量梯度下降---最小化所有训练样本的损失函数,使得最终求解的是全局的最优解,即求解的参数是使得风险函数最小,但是对于大规模样本问题效率低下。

随机梯度下降---最小化每条样本的损失函数,虽然不是每次迭代得到的损失函数都向着全局最优方向, 但是大的整体的方向是向全局最优解的,最终的结果往往是在全局最优解附近,适用于大规模训练样本情况。

相关文章

  • 最速梯度下降

    梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的...

  • Gradient descent梯度下降(Steepest de

    Welcome To My Blog梯度下降(gradient descent)也叫最速下降(steepest d...

  • 策略梯度

    姓名:李嘉蔚 学号16020520034 【嵌牛导读】:梯度下降法是一个最优化算法,通常也称为最速下降法。最速下降...

  • 最速下降和梯度下降

    梯度下降只是最速下降的一个子集,梯度下降用的是欧式范数。但是很多时候起始点的梯度并不代表过程中的梯度,所以有的时候...

  • 梯度下降法(gradient dectent)

    梯度下降法(英语:Gradient descent)是一个一阶最优化算法,通常也称为最速下降法。要使用梯度下降法找...

  • Python梯度下降法

    本文主要讲解梯度下降算法,以及Python的实现一个简单的例子 梯度下降法又称为最速下降法,是 1847 年有数学...

  • 机器学习_梯度下降算法

    梯度下降法(Gradient descent)或最速下降法(steepest descent)是求解无约束最优化问...

  • 梯度下降训练线性回归(最优化2)

    实验目的 梯度下降法是一个最优化算法,通常也称为最速下降法。最速下降法是求解无约束优化问题最简单和最古老的方法之一...

  • 线性回归(机器学习4)

    实验目的 梯度下降法是一个最优化算法,通常也称为最速下降法。最速下降法是求解无约束优化问题最简单和最古老的方法之一...

  • 梯度下降法

    梯度下降法,又称“最速下降法”,是机器学习领域最常用的优化算法之一,适用于各种无约束的优化问题。 下面我们简单叙述...

网友评论

      本文标题:最速梯度下降

      本文链接:https://www.haomeiwen.com/subject/qvoavqtx.html