梯度下降

作者: Jocelyn_Long | 来源:发表于2018-04-16 20:11 被阅读14次

首先假设一些变量
m 为训练数据样本,x为输入变量值也就特性,y为输出变量,也就是目标变量。(x,y)为一组数据。
反正最后公式就是这样... 怎么求导出来的我听了一节课也不明白... 可能还是要先补数学..
总之最后的代数表达式为:


tidudaishu.png

还有一种向量的更简单的表达式


tiduxiangliang.png
梯度下降概念

就是在初始化数据点求偏微分然后得出梯度下降最大点。
所以这里会涉及一个初始值选择和步长。

  • 步长设置过小则收敛速度慢,过大则可能错过最优解。
  • 初始值不同也有可能得到的是局部最优解而不是全部最优解。

梯度下降的算法调优也主要是步长与初始值设置了。还有一个就是输入特征归一化,这样更方便进行计算。

梯度下降有三种
  • 批梯度下降算法
    批就是针对全部样本的意思,数据量大的时候可能导致训练速度慢。

  • 随机梯度下降算法
    即在样本中随机选取J组样本。训练快,但是在数据样本大的时候,局部最优解浮动很大 不能快速收敛。

  • 小批量梯度下降算法
    结合了上述两种算法的优点。

参考资料

梯度下降小结
哈佛机器学习公开课
梯度下降在TensorFlow中的应用

相关文章

  • (三)线性回归--梯度下降

    一、梯度下降 二、代码的实现 (一.梯度下降) 导包 构建数据 梯度下降 使用梯度下降,可视化 (二。梯度下降矩阵...

  • 神经网络优化2

    梯度下降 梯度下降法 批梯度下降法(Batch Gradient Descent,BGD)是最常用的梯度下降形式,...

  • 深入浅出--梯度下降法及其实现

    梯度下降的场景假设梯度梯度下降算法的数学解释梯度下降算法的实例梯度下降算法的实现Further reading 本...

  • 机器学习-常用优化方法

    一阶方法:梯度下降、随机梯度下降、mini 随机梯度下降降法。 随机梯度下降不但速度上比原始梯度下降要快,局部最优...

  • ML-梯度下降代码-线性回归为例

    梯度下降代码线性回归为例 bgd 批量梯度下降 sbd 随机梯度下降 mbfd 小批量随机梯度下降

  • 2020-08-19--梯度下降法01

    梯度下降法简介 多元线性回归中的梯度下降法 随机梯度下降法 梯度下降法 的调试 1.梯度下降法简介 不是一个机器学...

  • 机器学习笔记(六)—— 梯度下降

    梯度下降 批量梯度下降(Batch Gradient Descent,BGD) 批量梯度下降法是最原始的形式,它是...

  • 更新权重的方式

    1、SGD 梯度下降(收敛最慢稳定) 梯度下降:+=- * d J() 批量梯度下降:将数据集切分为多批次, 分别...

  • 随机梯度下降法与批量梯度下降法的区别

    批量梯度下降法(batch gradient decent)就是我们平时所说的梯度下降,也就是梯度下降过程中,每次...

  • 梯度下降算法

    1. 三种梯度下降算法: Batch Gradient Descent: 全部样本梯度下降一次,批梯度下降每次更新...

网友评论

    本文标题:梯度下降

    本文链接:https://www.haomeiwen.com/subject/nztykftx.html