美文网首页
梯度下降

梯度下降

作者: 听城 | 来源:发表于2017-11-11 18:53 被阅读37次

梯度下降(Gradient Descent)是在求解机器学习算法的模型参数(无约束优化问题)时,最常采用的方法之一

代价函数

提到梯度下降就不得不说一下代价函数。代价函数也被称作平方误差函数,有时也被称为平方误差代价函数。
我们以猜测房屋价格为例子来说明代价函数的具体形式。问题简化之后可以认为拟合一条直线来衡量房子的价格,下图为表达式。可以看到有两个参数θ0和θ1

线性函数
我们选择的参数决定了我们得到的直线相对于我们的训练集的准确程度, 模型所预测的值与训练集中实际值之间的差距就是 建模误差(modeling error)。我们的目标便是选择出可以使得建模误差的平方和能够最小的模型参数。
代价函数
我们想要的结果是使这个函数最小,前面的1/2是为了在求导的时候方便计算

梯度下降

梯度下降是一个用来求函数最小值的算法,我们将使用梯度下降算法来求出代价函数J(θ01 ) 的最小值。
梯度下降原理:将函数比作一座山,我们站在某个山坡上,往四周看,从哪个方向向下走一小步,能够下降的最快

方法

  • 先确定向下一步的步伐大小,我们称为学习率Learning rate;
  • 初始化参数的值
  • 沿着负梯度方向去减小函数值并更新参数
  • 当下降的高度小于某个定义的值或迭代次数超过一定限制,则停止下降;



    对于多个参数的情况那是一样的



    梯度和偏导数都是向量,那么参考向量运算法则,我们在每个变量轴上减小对应变量值即可

特点

  • 这种方法只能找到一个局部最小值(local minimum),因为我们并没有尝试完所有的参数组合,所以不能确定我们得到的局部最小值是否便是全局最小值(global minimum),选择不同的初始参数组合,可能会找到不同的局部最小值。
  • 越接近最小值时,下降速度越慢

相关文章

  • (三)线性回归--梯度下降

    一、梯度下降 二、代码的实现 (一.梯度下降) 导包 构建数据 梯度下降 使用梯度下降,可视化 (二。梯度下降矩阵...

  • 神经网络优化2

    梯度下降 梯度下降法 批梯度下降法(Batch Gradient Descent,BGD)是最常用的梯度下降形式,...

  • 深入浅出--梯度下降法及其实现

    梯度下降的场景假设梯度梯度下降算法的数学解释梯度下降算法的实例梯度下降算法的实现Further reading 本...

  • 机器学习-常用优化方法

    一阶方法:梯度下降、随机梯度下降、mini 随机梯度下降降法。 随机梯度下降不但速度上比原始梯度下降要快,局部最优...

  • ML-梯度下降代码-线性回归为例

    梯度下降代码线性回归为例 bgd 批量梯度下降 sbd 随机梯度下降 mbfd 小批量随机梯度下降

  • 2020-08-19--梯度下降法01

    梯度下降法简介 多元线性回归中的梯度下降法 随机梯度下降法 梯度下降法 的调试 1.梯度下降法简介 不是一个机器学...

  • 机器学习笔记(六)—— 梯度下降

    梯度下降 批量梯度下降(Batch Gradient Descent,BGD) 批量梯度下降法是最原始的形式,它是...

  • 更新权重的方式

    1、SGD 梯度下降(收敛最慢稳定) 梯度下降:+=- * d J() 批量梯度下降:将数据集切分为多批次, 分别...

  • 随机梯度下降法与批量梯度下降法的区别

    批量梯度下降法(batch gradient decent)就是我们平时所说的梯度下降,也就是梯度下降过程中,每次...

  • 梯度下降算法

    1. 三种梯度下降算法: Batch Gradient Descent: 全部样本梯度下降一次,批梯度下降每次更新...

网友评论

      本文标题:梯度下降

      本文链接:https://www.haomeiwen.com/subject/qjhgmxtx.html