和感知机不同,逻辑回归在点到平面的距离基础上,通过逻辑函数,把距离值转换成一个(0,1)
的值,这个值称为P值(可能性)
logist函数
通过这个函数可以看到:
- 当 out 趋向于 -inf 的时候,p = 0
- 当 out 趋向于 +inf 的时候,p = 1
- out 相当于点到分类超平面的距离
似然函数
已知当前我们有个任务,把一组样本分成两类,0 或者 1,设:
组合上面两个公式,则一个样本点 的分类密度函数可以表示为:
-
- 当 yi = 1 的时候,P = p
- 当 yi = 0 的时候,P = 1-p
通过最大似然估计法,样本集的似然函数表示为:
损失函数
我们现在对模型定义一个损失函数 loss,使得 loss 最小的时候,L 最大;
- 其中 yi 是真实值,p 是预测值
- 取负数,是为了让 loss 最小的时候,L 最大
- 取的是每轮训练中样本的损失平均值
损失函数求导
又有
得到:
网友评论