美文网首页
一、单变量线性回归

一、单变量线性回归

作者: asdfgjsrgdf | 来源:发表于2019-01-01 00:11 被阅读0次

一些符号:

   m:训练集数量
   x:输入   y:输出
(x,y):一个样本
  x^{i}:第i个输入
  y^{i}:第i个输出
  \theta _{j}:模型参数
  h_{\theta}(x):假设函数
  \alpha :学习率

代价函数:

      J(\theta_0,\theta_1)=\frac{1}{2m}\sum {}(h_{\theta}(x^{(i)})-y^{(i)})^{2}    (此处为:平方误差代价函数)
至于为什么乘以1/2,是为了在求偏导时约去2,也有人说是为了降低极端值的影响

梯度下降:

  始于某一点,then
  repeat until 收敛{
       \theta _{j}:=\theta _{j}-\alpha \frac{\partial }{\partial \theta _{j}}J(\theta _{0},\theta _{1})    (j=0或j=1)
  }


如图,在向最小值下降的过程中,斜率越来越接近于0,变化的速度越来越慢。故一般不需要改变的值
过小会导致收敛速度很慢,过大会导致无法收敛或发散:
image.png
<注意>同步更新:

    错误:
        temp0:=\theta _{0}-\alpha \frac{\partial }{\partial \theta _{0}}J(\theta _{0},\theta _{1});
        \theta _{0}=temp0;
        temp1:=\theta _{1}-\alpha \frac{\partial }{\partial \theta _{1}}J(\theta _{1},\theta _{1});
        \theta _{1}=temp1;
                第二行要影响第三行

相关文章

  • 线性回归

    单变量线性回归 多变量线性回归 局限性 梯度下降法 优点 缺点 单变量线性回归 模型线性回归假设数据集中每个yi和...

  • 吴恩达机器学习(第一周)

    1.单变量线性回归(Linear Regression with One Variable) 1.1线性回归算法 ...

  • Machine Learning - Linear Regres

    单变量线性回归 image.png ///////////////////////////////////////...

  • 线性回归及梯度下降

    线性回归及梯度下降 参考资料:网址 本文会讲到: (1) 线性回归的定义 (2) 单变量线性回归 (3) cost...

  • 第2章 单变量&多变量线性回归

    单变量线性回归 梯度下降法 Gradient descent 用梯度下降法最小化代价函数J 多变量线性回归 mul...

  • 单变量线性回归(一)

    模型表达(Model Representation) 我们通过一个例子作为开始,这个例子就是我们之前的预测房价的例...

  • 一、单变量线性回归

    一些符号: m:训练集数量x:输入y:输出(x,y):一个样本第i个输入第i个输出模型参数假设函数学习率 代价函数...

  • 单变量线性回归

    最近在看吴恩达的机器学习,做个笔记总结总结。方便自己复习吧。 主要是学习了梯度下降算法和线性回归算法...

  • 单变量线性回归

    模型介绍 如图所示,在房价预测中,房间大小与其价格的关系可以简单地看成是一组线性关系,对于每一个房间大小,都有一个...

  • 单变量线性回归

    模型描述 训练集 假设预测出售房子的价格 房子大小 (x) 房子价格(y) 100 646 200 8...

网友评论

      本文标题:一、单变量线性回归

      本文链接:https://www.haomeiwen.com/subject/mylglqtx.html