美文网首页
11、损失函数之正则化L1\L2

11、损失函数之正则化L1\L2

作者: 是黄小胖呀 | 来源:发表于2020-12-14 10:17 被阅读0次

一般来说,监督学习的目标函数由损失函数和正则化项组成。(Objective = Loss + Regularization)

经验损失和模型复杂度

L1\L2正则化意义:

L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失函数中的某些参数做一些限制。对于线性回归模型,使用L1正则化的模型建叫做Lasso回归,使用L2正则化的模型叫做Ridge回归(岭回归)。

为什么L1正则化可以产生稀疏模型(L1是怎么让系数等于零的),以及为什么L2正则化可以防止过拟合

L2正则化和过拟合的关系

拟合过程中通常都倾向于让权值尽可能小,最后构造一个所有参数都比较小的模型。因为一般认为参数值小的模型比较简单,能适应不同的数据集,也在一定程度上避免了过拟合现象。可以设想一下对于一个线性回归方程,若参数很大,那么只要数据偏移一点点,就会对结果造成很大的影响;但如果参数足够小,数据偏移得多一点也不会对结果造成什么影响,专业一点的说法是『抗扰动能力强』。

参考:https://blog.csdn.net/jinping_shi/article/details/52433975

损失函数在模型编译时候指定。对于回归模型,通常使用的损失函数是平方损失函数 mean_squared_error。

对于二分类模型,通常使用的是二元交叉熵损失函数 binary_crossentropy。

对于多分类模型,如果label是one-hot编码的,则使用交叉熵损失函数 categorical_crossentropy。如果label是序号编码的,则需要使用稀疏类别交叉熵损失函数 sparse_categorical_crossentropy。

如果有需要,也可以自定义损失函数,自定义损失函数需要接收两个张量y_true,y_pred作为输入参数,并输出一个标量作为损失函数值。

相关文章

  • 深度学习dropout作用与原理

    Dropout 作用: 避免过拟合。 Dropout与L1和L2正则化区别: L1和L2正则化通过在损失函数上增加...

  • L1正则化和L2正则化的联系和区别

    机器学习中,一般损失函数后边会添加一个额外项,一般称作L1正则化L2正则化或者L1范数L2范数。L1、L2正则化可...

  • L1和L2正则化

    L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失函数中的某些参数做一些限制。对于线性回归模...

  • 深度学习的正则化

    正则化是为了降低模型的复杂度,和损失函数一起作用于模型中来避免模型过拟合。主要有L1正则化和L2正则化。L1正则化...

  • Logistic模型及其Scikit-learn实现

    penalty:正则化参数,可选l1或l2,分别对应l1正则化和l2正则化,默认为l2正则化。一般来说l2正则化可...

  • DL4J中文文档/开始/速查表-2

    正则化 L1/L2 正则化 L1和L2正则化可以容易地通过配置:.l1(0.1).l2(0.2)添加到网络中。注意...

  • 学习笔记-L1与L2正则化

    当模型过拟合时,我们常常使用正则化去减轻模型的复杂度。它主要在损失函数后添加正则项去约束模型。 L1与L2正则化 ...

  • 算法工程师面试问题汇总 [持续更新]

    机器学习 LR算法基本原理?交叉熵损失函数?L1,L2正则化? HMM, CRF区别?基本原理?优化方法&目标函数...

  • 2020-07-28

    1. 神经网络之L2正则化_Igor-CSDN博客_matlab神经网络l2正则化 2. l1正则与l2正则的特点...

  • 正则化的种类及选择依据

    正则化选择依据 L1、L2正则化 选择lambda

网友评论

      本文标题:11、损失函数之正则化L1\L2

      本文链接:https://www.haomeiwen.com/subject/ntvpgktx.html