代价函数
要定义用来拟合参数的优化目标或者叫代价函数
![](https://img.haomeiwen.com/i13975801/975434a956426334.png)
对于线性回归模型,我们定义的代价函数是所有模型误差的平方和。理论上来说,我们也可以对逻辑回归模型沿用这个定义,但是问题在于,当我们将
![](https://img.haomeiwen.com/i13975801/c907b0a0cfeec5b5.png)
这意味着我们的代价函数有许多局部最小值,这将影响梯度下降算法寻找全局最小值。
重新定义逻辑回归的代价函数
![](https://img.haomeiwen.com/i13975801/4ccc73beed08ab53.png)
![](https://img.haomeiwen.com/i13975801/d19a5f80325e5c09.png)
这样构建的函数的特点是:当实际的
且
也为 1 时误差为 0,当
但不为1时误差随着
变小而变大
由于只能取0或1,所以
可以写成
梯度下降
为了得到参数,
,最小化代价函数,使用梯度下降方法,
![](https://img.haomeiwen.com/i13975801/cf1d297545aa28a5.png)
![](https://img.haomeiwen.com/i13975801/49d9d8e8b072ba60.png)
这个式子正是我们用来做线性回归梯度下降的!!!
对于线性回归假设函数
对于逻辑回归假设函数
网友评论