线性回归
-
属于有监督学习模型
-
输出的结果是连续变量值
-
需要学习映射
-
假设输入和输出之间存在线性关系
-
在预测阶段,给定输入预测其输出:
多变量情形
损失函数
线性回归中的损失函数使用的是平方损失函数,其表达式
目标:使得损失最小化
梯度下降算法
-
逐步最小化损失函数的过程
-
如同下山,找准方向(斜率),每次迈进一小步,直至山底
原始形式:
将代价函数带进去:
求导数之后:
当时:
过拟合问题
模型特征多,模型比较复杂,对原始数据拟合的很好,但是对新的数据预测效果差。
MzINad.png正则化
正则化技术主要是为了解决过拟合的问题。过拟合指的是:对现有的样本数据具有很好的判断能力,但是对新的数据预测能力很差。
对于过拟合的处理:
-
丢弃一些不能正确预测的特征。可以是手工选择保留哪些特征,或者使用一些模型选择的算法,例如PCA
-
正则化。 保留所有的特征,但是减少参数的大小(magnitude)
-
加入正则化参数后能够防止过拟合问题,其中是正则化参数Regularization Parameter
Attention:一般地,不对进行惩罚;加上正则化参数实际上是对参数进行惩罚。
- 太小:约束不了
- 太大:平方损失函数有后面的正则项决定,这不是我们希望看到的
逻辑斯蒂回归
对离散值进行分类,激活函数是,也称之为压缩函数
损失函数
加入正则项:
LR特点
-
LR
是以概率的形式输出,而不是0-1
判定 - 可解释性强,可控度高
- 训练快,做排序模型
LR主要应用
-
CTR
预估/推荐系统中的learning to rank
/各种分类场景 - 电商搜索排序/广告
CTR
预估基线版是LR
- 电商的购物搭配推荐使用了大量的
LR
- 新闻
APP
排序基线是LR
网友评论