支持向量机,里面有一个巧妙的数学技巧,能让计算机处理无限多个特征
二、单变量线性回归(Linear Regression with One Variable)
Hypothesis:假设
CostFunction:代价函数
梯度下降(这个还有点懵逼)(理解啦~)
稍微有点理解:
因为斜率会越来越小 所以越到极值点梯度下降越慢
所以,根据这个原理可以用它来最小化任何代价函数,不只是线性回归中的代价函数。
线性回归的梯度下降算法(上面的二合一囖~):
支持向量机,里面有一个巧妙的数学技巧,能让计算机处理无限多个特征
Hypothesis:假设
CostFunction:代价函数
梯度下降(这个还有点懵逼)(理解啦~)
稍微有点理解:
因为斜率会越来越小 所以越到极值点梯度下降越慢
所以,根据这个原理可以用它来最小化任何代价函数,不只是线性回归中的代价函数。
线性回归的梯度下降算法(上面的二合一囖~):
本文标题:2020-06-10 吴恩达 机器学习 笔记 day01
本文链接:https://www.haomeiwen.com/subject/ytfptktx.html
网友评论