美文网首页
梯度下降法后知后觉

梯度下降法后知后觉

作者: mugtmag | 来源:发表于2016-08-10 21:23 被阅读34次
  1. y值没有对应的y0、y1....


    Paste_Image.png
Paste_Image.png
  1. 我对利用梯度下降法theta进行更新的理解:如果用向量进行表示的话应该是theta = theta - alpha/m((Xtheta - y)'X)' (1)
    theta = [theta0;theta1;...]
    X也是训练数据矩阵,y是结果矩阵
Paste_Image.png 可以表示为(Xtheta - y)
即得到mx1矩阵;
而后下图红框中的值表示成向量的话就,即X(:,1),这个表示对应的m个x0值、X(:,2),这个表示对应的m个x1值、X(:,3),这个表示对应的m个x2值 ,这三个矩阵都是mx1的矩阵,而 (X
theta - y)'
X(:,1)相当于
Paste_Image.png 最终得到的是一个数值。
注意:matlab中矩阵下标是从1开始的,那么theta0 、theta1、theta2同时更新的话,即可表示为矩阵theta的更新,如上式(1)所示,各个theta值的更新是通过迭代次数不同而不断发生变化,直至达到设定好的迭代次数或者 J 的值达到某一小的程度。
Paste_Image.png Paste_Image.png

但是!却一定不能这样写:


Paste_Image.png

因为当更新完theta(1)后,式子2红框中的theta是已经更新了theta(1)而theta(2)并没有变,所以theta(2)相当于是在theta(1)的基础上更新的,故并不是没有同时更新theta(1)、theta(2)

相关文章

  • 2020-08-19--梯度下降法01

    梯度下降法简介 多元线性回归中的梯度下降法 随机梯度下降法 梯度下降法 的调试 1.梯度下降法简介 不是一个机器学...

  • 梯度下降法

    梯度下降法 本文主要是为了讲解 梯度下降法 的原理和实践,至于什么是梯度下降法,他能做什么,相信百度一下你就都知道...

  • 学习笔记:两种梯度下降法的思考

    在看梯度下降法的时候最初还真没看明白两种梯度下降法的区别,于是昨天散步的时候认真的思考了一下。 两种梯度下降法分别...

  • 最速梯度下降

    梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的...

  • 神经网络优化2

    梯度下降 梯度下降法 批梯度下降法(Batch Gradient Descent,BGD)是最常用的梯度下降形式,...

  • 2019-03-17神经网络——optimizer

    神经网络优化算法,通常有三种:小批量梯度下降法,随机梯度下降法和批量梯度下降法。 小批量梯度下降法 适用于训练数据...

  • 2019-11-01第二课二周优化算法

    指数加权平均: 动量梯度下降法: RMSprop:和动量梯度下降法相似 adam优化算法:将动量梯度下降法和RMS...

  • 机器学习系列(十六)——随机梯度下降Stochastic Gra

    随机梯度下降法Stochastic Gradient Descent 在之前的梯度下降法解决线性回归问题中,梯度向...

  • 全梯度下降算法从零实现,基于Numpy

    批量梯度下降法BGD Github 批量梯度下降法(Batch Gradient Descent,简称BGD)是梯...

  • 机器学习学习笔记(六)梯度下降法

    基础 (1)梯度下降法本身不是一个机器学习算法 (2)梯度下降法是一种基于搜索的最优化方法 (3)梯度下降法的作用...

网友评论

      本文标题:梯度下降法后知后觉

      本文链接:https://www.haomeiwen.com/subject/jpujsttx.html