美文网首页
损失函数与正则化惩罚

损失函数与正则化惩罚

作者: 向着光噜噜 | 来源:发表于2021-03-12 16:41 被阅读0次

一、损失函数

也叫代价函数,是同一个东西。是用来评估模型的预测值f(x)与真实值Y的差距,它是一个非负实值函数。

常用的损失函数有:

1.0-1损失函数(0-1 loss function)

  当预测错误时,损失函数值为1,预测正确时,损失函数值为0。该损失函数不考虑预测值和真实值的误差程度,也就是只要预测错误,预测错误差一点和差很多是一样的。

2.平方损失函数(quadratic loss function)

  该损失函数的意义也很简单,就是取预测差距的平方。

3.绝对值损失函数(absolute loss function)

  该损失函数的意义和上面差不多,只不过是取了绝对值而不是求绝对值,差距不会被平方放大。

4.对数损失函数(logarithmic loss function)

  这个损失函数就比较难理解了。事实上,该损失函数用到了极大似然估计的思想。P(Y|X)通俗的解释就是:在当前模型的基础上,对于样本X,其预测值为Y,也就是预测正确的概率。由于概率之间的同时满足需要使用乘法,为了将其转化为加法,我们将其取对数。最后由于是损失函数,所以预测正确的概率越高,其损失值应该是越小,因此再加个负号取个反。

全局损失函数

  上面的损失函数仅仅是对于一个样本来说的。而我们的优化目标函数应当是使全局损失函数最小。因此,全局损失函数往往是每个样本的损失函数之和,即:

  对于平方损失函数,为了求导方便,我们可以在前面乘上一个1/2,和平方项求导后的2抵消,即:

逻辑回归中的损失函数

在逻辑回归中,我们采用的是对数损失函数。由于逻辑回归是服从伯努利分布(0-1分布)的,并且逻辑回归返回的sigmoid值是处于(0,1)区间,不会取到0,1两个端点。因此我们能够将其损失函数写成以下形式:

二、正则化

描述一件物品时,描述的内容越丰富详实则约束越多,识别的泛化性就差,代表的事物就少。在训练数据不够多时,或者过度训练模型时,常常会导致过拟合。正则化方法即为在此时向原始模型引入额外信息,以便防止过拟合和提高模型泛化性能的一类方法的统称,这就引入了正则化惩罚项。

在机器学习里叫正则化,线性代数叫范数,统计学里叫惩罚项。

机器学习里:L1使用的是绝对值距离,也叫曼哈顿距离,L2使用的是平方距离,也叫做欧式(Euclidean)距离。

线性代数:L1 范数计算的是向量所有元素绝对值的和,L2 范数计算的是通常意义上的向量长度 。

相关文章

  • L1和L2正则化

    L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失函数中的某些参数做一些限制。对于线性回归模...

  • 损失函数与正则化惩罚

    一、损失函数 也叫代价函数,是同一个东西。是用来评估模型的预测值f(x)与真实值Y的差距,它是一个非负实值函数。 ...

  • 数据预处理中归一化(Normalization)与损失函数中正则

    数据预处理中归一化(Normalization)与损失函数中正则化(Regularization)解惑 背景:数据...

  • Bias和Variance

    bias指的是模型训练中保证损失最小 variance指的是模型泛化能力最强 目标函数=损失函数+正则项 损失函数...

  • Xgboost PPT解析

    监督学习基本元素 模型 参数 目标函数 = 损失函数+正则化项:优化损失函数为了拟合预测模型,而正则项负责简化模型...

  • [ML] Loss_Function

    1. Loss Function(损失函数) 损失函数可以看做误差部分(loss term)+正则化部分(regu...

  • 矩阵分解

    MF和正则化MF 参考python-matrix-factorization/ 正则化MF就是在MF的损失函数上加...

  • 正则化

    模型正则化 当模型过拟合的时候会选择正则化来解决这个问题。本质上是在损失函数上加上W矩阵的和。当使损失函数最小时不...

  • 深度学习dropout作用与原理

    Dropout 作用: 避免过拟合。 Dropout与L1和L2正则化区别: L1和L2正则化通过在损失函数上增加...

  • 添加相似度后的 ALS 损失函数

    添加相似度后的损失函数 损失函数的推导 目前代码还未实现在 ALS 的损失函数中添加用户之间相似度的正则化 原因需...

网友评论

      本文标题:损失函数与正则化惩罚

      本文链接:https://www.haomeiwen.com/subject/cgpwqltx.html