美文网首页
吴恩达机器学习课程学习记录(2.单变量线性回归)

吴恩达机器学习课程学习记录(2.单变量线性回归)

作者: 2016年的夏天 | 来源:发表于2020-11-30 01:55 被阅读0次

2020.10.6完成第二章:单变量线性回归
(注:文章中的截图均来自于吴恩达老师的课程PPT)
吴恩达老师的课程可在网易云课堂或B站进行观看。
下面的笔记是按照网易云课堂中的课时来记录的。

1、模型描述:

讲了线性回归预测模型(一次函数)

预测函数(hypothesis function)

2、代价函数:

介绍了代价函数(cost function)的定义

3、代价函数(1):

进一步取不同值计算代价函数的大小

4、代价函数(2):

同时考虑两个参数,可视化不同代价函数的“代价”大小,并且引出 应该让机器自己找到这个“最低点”(就是代价最小对应的参数值)

5、梯度下降:

本节介绍了梯度下降算法(Gradient descent algorithm),该算法可以让机器自动地找到损失最小值对应的假设函数的几个参数(本题以两个参数为例),梯度算法其实就是每走到一个点,求一次梯度(梯度是函数值变化最快的方向),然后不断“下山”,直到到达最底部(损失最小)的地方。

梯度下降算法 梯度下降算法

而且注意,每在一个地方,求一次导数值,都要同步更新所有参数,如上图来看,右边部分是错误的(不是我们所说的梯度下降算法,可能也行得通,但那是其他算法了),因为没有同步更新参数。

6、梯度下降知识点总结:
learning rate

梯度算法中的α是learning rate 学习速率的意思,控制着“下山的步伐的大小”。

梯度下降算法

以一个参数为例来解释为什么梯度更新的式子是那样的,上面两图就清楚地解释了怎样“朝低的地方走去”

图片.png

上图解释了learning rate的大小对寻找到最低点的影响。太小的话下降得太慢,太大的话有可能直接越过局部最优解。

梯度下降算法有一个Bug,有时候通过不断地梯度下降也只能找到局部最优点,没办法找到全局最优点,但如果是线性回归的话,不存在这种问题,线性回归的梯度下降最后到的都是最终的最低值(全局)。

线性回归的代价函数总是弓状函数(convex function),最后总会走到同一个最低点。(下面的二维图像其实就是代价函数(两个未知数)的图像)。

线性回归的代价函数

局部最优(local optimum)


图片.png

后面下降的幅度会逐步减小,直到到达最底部不变,因为最底部的导数值为0,此时不会再有变化(但前提是要能到达底部)

7、线性回归的梯度下降 (线性回归算法的形成)

将梯度下降和代价函数结合得到线性回归算法,用直线来拟合数据。

Use gradient decent to minimize our squared error cost function(用梯度下降算法来最小化平方差代价函数)

课时内容简要摘录(网易云课堂上附带的概要):

章节2:单变量线性回归

课时6:模型描述

为了更准确地描述监督学习问题,我们给出一个训练集,以此来构建一个模型。

课时7:代价函数
课时8:代价函数(1)
课时(9):代价函数(2)

我们可以通过使用代价函数来衡量假设函数的准确性。这取决于x的输入和实际输出y的假设的所有结果的平均差异(实际上是平均值的平均值)

课时10:梯度下降

当我们有一个假设函数,并且有一种方法来衡量它对数据的适应性。现在我们需要估计假设函数中的参数,这就是梯度下降的地方。

课时11:梯度下降知识点总结

这点笔记希望能帮上同是新手的朋友一点忙吧(不过还是推荐亲自去看看老师的视频啦),有哪里表述不准确的希望大家多多指正。

相关文章

  • 深度之眼吴恩达机器学习 百度网盘分享

    教学大纲 【第一阶段】 学习吴恩达机器学习原版视频: 1.了解机器学习基本概念 2.学习单变量线性回归,体验最基本...

  • 单变量线性回归

      本文档基于吴恩达机器学习课程单变量线性回归部分内容,记录自己对该部分内容的理解,并给出了MATLAB代码实现,...

  • 吴恩达-机器学习 百度网盘分享

    【第一阶段】 学习吴恩达机器学习原版视频:1.了解机器学习基本概念2.学习单变量线性回归,体验最基本模型的魅力3....

  • 2019-06-02

    网易云课堂-吴恩达机器学习课程 1-19课时 第一章:初识机器学习;第二章:单变量线性回归;第三章:线性代数回顾 ...

  • 吴恩达机器学习课程学习记录(2.单变量线性回归)

    2020.10.6完成第二章:单变量线性回归(注:文章中的截图均来自于吴恩达老师的课程PPT)吴恩达老师的课程可在...

  • 吴恩达机器学习——多变量线性回归

    最近在学习吴恩达老师的机器学习课程,今天简要地给大家分享课程第四章多变量线性回归地内容。 感兴趣的伙伴可以参考吴恩...

  • 吴恩达机器学习——单变量线性回归

    第二章讲的是单变量线性回归。线性回归很简单,主要讲的是假设函数和代价函数,以及梯度下降算法。首先是假设函数,这个是...

  • 2 逻辑回归

    逻辑回归是线性回归的变形,看了很多机器学习书籍,吴恩达的课程对线性回归和逻辑回归的讲解非常清晰,原理性和推导都很好...

  • 2018-09-09学习计划

    1.机器学习的课程两个章节, 把书里面的线性回归代码还有逻辑回归代码写一下下载机器学习实战的代码还有吴恩达的课程的...

  • 线性回归&逻辑回归&正则化

    本文为《吴恩达机器学习》课程笔记 线性回归 代价函数 Cost Fuction 它的目标是: 选择出可以使得建模误...

网友评论

      本文标题:吴恩达机器学习课程学习记录(2.单变量线性回归)

      本文链接:https://www.haomeiwen.com/subject/yrkkwktx.html