一、监督学习
在给定的训练数据集中学习出一个函数(模型参数),当新的数据到来时,可以根据这个函数预测结果。往往这个结果是我们标注的。通过对我们收集的样本进行训练,得到一个最优的模型。当我们拿到一个新数据的时候,我们就放进我们训练得到模型中,去预测一个结果。
其中有回归分析模型,例如根据房子的面积去预测对应的房价。如下图
![](https://img.haomeiwen.com/i19949423/8865cb666bf89e63.png)
也有统计分类模型,例如根据肿瘤的大小去预测该肿瘤为良性还是恶性。如下图
![](https://img.haomeiwen.com/i19949423/efcfc69af855502d.png)
二、无监督学习
在一组样本数据集里,不告诉计算机怎么做,而是让它自己去学习怎样做事情。
例如在杂乱无章的声音中,将距离麦克风最近的声音筛选出来。谷歌浏览器中的新闻分类。等等
三、代价函数
例如房价预测的回归模型中,设回归方程为f(x)=ax+b,则我们的模型函数即为f(x)=ax+b。当我们拿到一个新的数据设为y,这个y与f(x)的差值为我们函数的误差值,也就是说要付出的代价,则g(x)=f(x)-y为我们的代价函数。如图
![](https://img.haomeiwen.com/i19949423/637e9b598e47522b.png)
四、平方差代价函数
![](https://img.haomeiwen.com/i19949423/516979bdc2c1f084.png)
五、梯度下降
我们的回归方程可以是线性方程,也可以是曲线方程,所以参数有无数多个J(a,b,c.......n)。下面我们用简单的线性方程来演示梯度下降,例如房价预测模型J(a,b)代价函数。如下图
![](https://img.haomeiwen.com/i19949423/adc244de9926af7f.png)
![](https://img.haomeiwen.com/i19949423/a46fd4cabe3a1f9e.png)
![](https://img.haomeiwen.com/i19949423/90eabbffb295e1a9.png)
网友评论