Model representation 模型表示
本课主要介绍了监督学习的模型表示,以回归问题作为例子介绍了训练集 的表示以及监督学习的工作流程。
![](https://img.haomeiwen.com/i17916304/c483df007b1f4aae.png)
监督学习是给定一个训练集,然后根据学习算法产生一个假设(hypothesis)h,最后将实际数据应用于h得到想要的输出。对于一元线性回归,h为x的一元线性函数。
![](https://img.haomeiwen.com/i17916304/f326cc6601a7cc7e.png)
Cost function 代价函数
本课主要介绍了一元线性回归中代价函数的概念和例子。
对于一元线性回归,θ_0和θ_1称为模型参数,不同的参数会得到不同的假设函数。然而怎么样确定最合适的模型参数呢,那么就要引入代价函数的概念。
![](https://img.haomeiwen.com/i17916304/382975fff3439e7e.png)
最优的模型应该是让预测值和真实值的差距最小,因此我们用真实值减去预测值的差(误差)的平方和来表示我们需要最小化的目标。再乘以1/2m是为了使该函数求导方便,不影响最后的θ_0和θ_1。因此,这就是一元线性回归中的代价函数。
![](https://img.haomeiwen.com/i17916304/29e8ffc1bdd04b8f.png)
Cost function intuition I 代价函数的直观例子1
本节课对于没有截距的h(x)(θ_0=0)行了进行了不同θ_1的代入,计算了不同θ_1时J(θ_1)的值。结果表明代价函数J(θ_1)在θ_1=1时取得最小,并且曲线呈现二次函数的形状。
![](https://img.haomeiwen.com/i17916304/5cac7b51f7f83fec.png)
Cost function intuition II 代价函数的直观例子2
本课主要介绍了有截距的h(x)所对应的代价函数J(θ_0, θ_1)的图像,可以看到随着θ_0和θ_1的变化,J(θ_0, θ_1)的值也发生变化,而且h(x)你和直线也会发生变化,要求得最优的h(x),即是要求最优的θ_0和θ_1,使得J(θ_0, θ_1)最小。
![](https://img.haomeiwen.com/i17916304/df28a3f7ae84d536.png)
网友评论