美文网首页
梯度上升和梯度下降

梯度上升和梯度下降

作者: yxwithu | 来源:发表于2017-09-13 16:24 被阅读0次

区别

函数上当前点对应的梯度方向是增大最快的方向,反方向是减小最快的方向

梯度上升

要计算的是函数的极大值,如最大化似然函数,加上学习率 * 梯度
θ ≔ θ + α * ∇𝜃𝐿(𝜃)

梯度下降

要计算的是函数的极小值,如最小化损失函数,减去学习率 * 梯度
θ ≔ θ - α * ∇𝜃𝐿(𝜃)

概念混淆使用

在某些地方可能说是梯度下降,但是用的却是加法,有两种解释:

  1. 减号代入了梯度中
  2. 梯度下降和梯度上升本质上是一样的,将梯度上升说成了梯度下降

反之亦然

使用条件

某一点上梯度存在的必要条件:函数h(x)在该点可微且存在定义。

可微:设函数y= f(x),若自变量在点x的改变量Δx与函数相应的改变量Δy有关系Δy=A×Δx+ο(Δx),其中A与Δx无关,则称函数f(x)在点x可微,并称AΔx为函数f(x)在点x的微分,记作dy,即dy=A×Δx,当x= x0时,则记作dy∣x=x0。

可微的必要条件:
若函数在某点可微分,则函数在该点必连续;
若二元函数在某点可微分,则该函数在该点对x和y的偏导数必存在

可微的充分条件:
若函数对x和y的偏导数在这点的某一邻域内都存在,且均在这点连续,则该函数在这点可微。

缺点

  1. 靠近极小(大)值时速度减慢;
  2. 直线搜索可能会产生一些问题;
  3. 可能会之字形下降(上升)。

参考:
https://baike.baidu.com/item/%E5%8F%AF%E5%BE%AE
http://www.cnblogs.com/hitwhhw09/p/4715030.html
https://zh.wikipedia.org/wiki/%E6%A2%AF%E5%BA%A6%E4%B8%8B%E9%99%8D%E6%B3%95

相关文章

  • 梯度下降和梯度上升

    梯度上升与梯度下降 - HIT-security - 博客园 不管梯度下降还是梯度上升,随着迭代的进行,梯度都是在...

  • 梯度上升和梯度下降

    区别 函数上当前点对应的梯度方向是增大最快的方向,反方向是减小最快的方向 梯度上升 要计算的是函数的极大值,如最大...

  • 梯度下降和上升

    在介绍梯度概念之前,首先需要引入偏导数和方向偏导数的概念, 偏导数: 所谓偏导数,简单来说是对于一个多元函数,选定...

  • ML-梯度下降法求解线性回归

    梯度法 是基于搜索来最优化一个目标函数的方法。分为梯度下降法 和 梯度上升法 :梯度下降法 用来最小化一个损失函数...

  • 为什么梯度方向是函数值增大最快的方向

    Welcome To My Blog梯度下降中,梯度反方向是函数值下降最快的方向,说明梯度方向是函数值上升最快的方...

  • (三)线性回归--梯度下降

    一、梯度下降 二、代码的实现 (一.梯度下降) 导包 构建数据 梯度下降 使用梯度下降,可视化 (二。梯度下降矩阵...

  • 深入浅出--梯度下降法及其实现

    梯度下降的场景假设梯度梯度下降算法的数学解释梯度下降算法的实例梯度下降算法的实现Further reading 本...

  • 神经网络优化2

    梯度下降 梯度下降法 批梯度下降法(Batch Gradient Descent,BGD)是最常用的梯度下降形式,...

  • 机器学习-常用优化方法

    一阶方法:梯度下降、随机梯度下降、mini 随机梯度下降降法。 随机梯度下降不但速度上比原始梯度下降要快,局部最优...

  • ML-梯度下降代码-线性回归为例

    梯度下降代码线性回归为例 bgd 批量梯度下降 sbd 随机梯度下降 mbfd 小批量随机梯度下降

网友评论

      本文标题:梯度上升和梯度下降

      本文链接:https://www.haomeiwen.com/subject/wiclsxtx.html