美文网首页
单变量线性回归

单变量线性回归

作者: Demons_hacker | 来源:发表于2018-06-06 11:25 被阅读0次

       最近在看吴恩达的机器学习,做个笔记总结总结。方便自己复习吧。


        主要是学习了梯度下降算法和线性回归算法。通过一个具体的例子引出的。回归问题通俗说就是学习算法通过学习训练集得到假设函数,用来预测,估计。而对于单变量的线性回归,他的假设函数是一种线性的方程。h(x) = a + bx,学习算法就是通过找到合适的a,b的值,最终得到假设函数。所以就引入了代价函数这个概念,是用来找到最合适的参数值。

         那么代价函数是怎么来的。

回归.

         这个图中蓝色的线则为建模误差,即模型预测值与实际样本的差距。我们的目标就是选出能使得建模误差的平方和最小的模型参数。使得代价函数最小。

代价函数 三维图

       我们的目标就是让目标函数最小化。得到最合适的参数。

      代价函数也叫平方误差函数,有时候叫做平方误差代价函数。之所以要求出误差的平方和,是因为误差平方代价函数。它是解决回归问题最常用的手段。

       接下来考虑的问题就是如何找到代价函数的最小值,这里用的是梯度下降算法。它的思想是随机选择一个参数的组合,计算代价函数,然后我们寻找下一个能让代价函数值下降最多的参数组合。持续做,知道找到一个局部最小值,因为并没有尝试完所有的参数组合,所以不能确定得到的局部最小值就是全局的最小值,而选择不同的初始参数组合,可能会找到不同的局部最小值。

梯度下降算法

       这里alpha是学习速率,它决定了我们沿着代价函数下降程度最大的方向向下迈出的步子有多大。在这个算法中,要同时更新theta0和theta1的值(同步更新)(至于为啥要同步更新,还没咋想明白)。

梯度下降算法和线性回归比较

对之前的线性回归算法运用梯度下降,关键在于求出代价函数的导数

梯度下降的线性回归算法

相关文章

  • 线性回归

    单变量线性回归 多变量线性回归 局限性 梯度下降法 优点 缺点 单变量线性回归 模型线性回归假设数据集中每个yi和...

  • 吴恩达机器学习(第一周)

    1.单变量线性回归(Linear Regression with One Variable) 1.1线性回归算法 ...

  • Machine Learning - Linear Regres

    单变量线性回归 image.png ///////////////////////////////////////...

  • 线性回归及梯度下降

    线性回归及梯度下降 参考资料:网址 本文会讲到: (1) 线性回归的定义 (2) 单变量线性回归 (3) cost...

  • 第2章 单变量&多变量线性回归

    单变量线性回归 梯度下降法 Gradient descent 用梯度下降法最小化代价函数J 多变量线性回归 mul...

  • 单变量线性回归

    最近在看吴恩达的机器学习,做个笔记总结总结。方便自己复习吧。 主要是学习了梯度下降算法和线性回归算法...

  • 单变量线性回归

    模型介绍 如图所示,在房价预测中,房间大小与其价格的关系可以简单地看成是一组线性关系,对于每一个房间大小,都有一个...

  • 单变量线性回归

    模型描述 训练集 假设预测出售房子的价格 房子大小 (x) 房子价格(y) 100 646 200 8...

  • 单变量线性回归

    模型描述 让我们来继续讨论一下房价预测问题,上图分别展示了房价随房屋大小(单位为平米)的变化趋势以及包含这两个特征...

  • 单变量线性回归

      本文档基于吴恩达机器学习课程单变量线性回归部分内容,记录自己对该部分内容的理解,并给出了MATLAB代码实现,...

网友评论

      本文标题:单变量线性回归

      本文链接:https://www.haomeiwen.com/subject/gazvsftx.html