美文网首页
最优化方法:梯度下降

最优化方法:梯度下降

作者: 老姚记事本 | 来源:发表于2020-04-05 22:47 被阅读0次

机器学习就是需找一种函数f(x)并进行优化, 且这种函数能够做预测、分类、生成等工作。

“如何找到函数f(x)”?可以看作是机器学习的“三板斧”:

  • 第一步:定义一个函数集合(define a function set)
  • 第二步:判断函数的好坏(goodness of a function)
  • 第三步:选择最好的函数(pick the best one)

关于第三步:梯度下降是目前机器学习、深度学习解决最优化问题的算法中,最核心、应用最广的方法。

为什么需要梯度下降算法

我们找到使损失函数尽可能小的未知模型参数。“梯度算法”对大多数模型都适用。

梯度下降(Gradient Descent, GD)不是一个机器学习算法,而是一种基于搜索的最优化方法。
梯度下降(Gradient Descent, GD)优化算法,其作用是用来对原始模型的损失函数进行优化,以便寻找到最优的参数,使得损失函数的值最小。

梯度下降抓住了参数与损失值之间的导数,也就是能够计算梯度(gradient),通过导数告诉我们此时此刻某参数应该朝什么方向,以怎样的速度运动,能安全高效降低损失值,朝最小损失值靠拢。

什么是梯度

多元函数的导数(derivative)就是梯度(gradient),分别对每个变量进行微分,然后用逗号分割开,梯度是用括号包括起来,梯度其实一个向量。


梯度指向误差值增加最快的方向,导数为0(梯度为0向量)的点,就是优化问题的解。

梯度下降的问题

梯度下降算法是一种思想,没有严格的定义。从理论上,它只能保证达到局部最低点,而非全局最低点。


参考资料

还不了解梯度下降法?看完这篇就懂了!
线性回归中的梯度下降

相关文章

  • 深度学习大力丸-BatchNormalization

    为什么我们需要BN 回顾梯度下降 我们知道,神经网路的优化方法都是基于梯度下降的思想,简言之,梯度下降优化方法有这...

  • 笔记6-Deep learning and backpropag

    优化算法:梯度下降,反向传播(BP)是梯度下降实现方法之一。

  • 知识点

    优化方法 梯度下降 梯度下降是一种优化算法,通过迭代的方式寻找模型的最优参数; 所谓最优参数指的是使目标函数达到最...

  • 梯度下降训练线性回归(最优化2)

    实验目的 梯度下降法是一个最优化算法,通常也称为最速下降法。最速下降法是求解无约束优化问题最简单和最古老的方法之一...

  • 线性回归(机器学习4)

    实验目的 梯度下降法是一个最优化算法,通常也称为最速下降法。最速下降法是求解无约束优化问题最简单和最古老的方法之一...

  • 机器学习学习笔记(六)梯度下降法

    基础 (1)梯度下降法本身不是一个机器学习算法 (2)梯度下降法是一种基于搜索的最优化方法 (3)梯度下降法的作用...

  • 简述动量Momentum梯度下降

    梯度下降是机器学习中用来使模型逼近真实分布的最小偏差的优化方法。在普通的随机梯度下降和批梯度下降当中,参数的更新是...

  • 2018-12-15逻辑回归 高级优化

    高级优化 “共轭梯度”,“BFGS”和“L-BFGS”是更复杂,更快速的优化θ的方法,可用于代替梯度下降。但是建议...

  • 梯度下降求解线性回归

    什么是梯度下降?在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最...

  • 梯度下降:SGD vs Momentum vs NAG vs A

    梯度下降优化基本公式: 一、三种梯度下降优化框架 这三种梯度下降优化框架的区别在于每次更新模型参数时使用不同的样本...

网友评论

      本文标题:最优化方法:梯度下降

      本文链接:https://www.haomeiwen.com/subject/jxcmphtx.html