第二章讲的是单变量线性回归。
线性回归很简单,主要讲的是假设函数和代价函数,以及梯度下降算法。
首先是假设函数,这个是机器学习的核心,所有的算法都是为了求出一个合适的假设函数。
而为了高效率的求出假设函数,就引出了代价函数这个东西,代价函数的实质就是代价两个字,但预期值和实际值相差最小,就是代价函数最优,也就是假设函数最好的时候。
梯度下降算法是求代价函数最常用也最通用的方法。
因为之前学过线性代数和离散数学等科目,所以理解起来还是很容易的。
第二章讲的是单变量线性回归。
线性回归很简单,主要讲的是假设函数和代价函数,以及梯度下降算法。
首先是假设函数,这个是机器学习的核心,所有的算法都是为了求出一个合适的假设函数。
而为了高效率的求出假设函数,就引出了代价函数这个东西,代价函数的实质就是代价两个字,但预期值和实际值相差最小,就是代价函数最优,也就是假设函数最好的时候。
梯度下降算法是求代价函数最常用也最通用的方法。
因为之前学过线性代数和离散数学等科目,所以理解起来还是很容易的。
本文标题:吴恩达机器学习——单变量线性回归
本文链接:https://www.haomeiwen.com/subject/ksqrhctx.html
网友评论