美文网首页
12.L1范数,L2范数

12.L1范数,L2范数

作者: 袁一帆 | 来源:发表于2016-03-04 10:08 被阅读689次

存在意义

监督学习的2个主题就是
  1. 最小化误差:模型拟合数据
  2. 规则化参数:防止过拟合

为了使模型简单,所以需要规则化
在保持模型单的情况下,使误差最小,可以得到泛化能力强的模型

规则化符合奥卡姆剃刀(Occam's razor)原理。即在所有可能选择的模型中,我们应该选择能够很好地解释已知数据并且十分简单的模型。

规则化是结构风险最小化策略的体现,是在经验风险上加一个正则化项(regularizer)或惩罚项(penalty term)。

L0与L1

L0范数是指向量中非0的元素的个数。是使权值W稀疏化。
L1范数是指向量中各个元素绝对值之和

L1范数和L0范数可以实现稀疏,L1因具有比L0更好的优化求解特性而被广泛应用。

稀疏有什么卵用?
  1. 特征选择:实现特征的自动选择。去除和最终的输出yi没有关系或者不提供任何信息的特征
  2. 可解释性:留下的非0参数少,更易理解

L2范式

L2范式:向量各元素的平方和然后求平方根。
L2范式可以改善过拟合问题
L2范数的规则项||W||2最小,可以使得W的每个元素都很小,都接近于0,但与L1范数不同,它不会让它等于0,而是接近于0

过拟合与欠拟合

L2范数不但可以防止过拟合,还可以让我们的优化求解变得稳定和快速。下图左边是优化过后的效果,这样可以更快逼近最优值,而右边因为切点处很平缓,因此逼近最优解的速度缓慢。

左边是加了L2的效果,更易逼近最优解

L1使得大部分特征置0,但是L2并不会将特征都置0,只是尽量将参数“惩罚”为接近0的一个小值,这个惩罚力度由因子λ控制,λ越大,最终训练得到的w就越小(越接近0)。

相关文章

  • 12.L1范数,L2范数

    存在意义 监督学习的2个主题就是 最小化误差:模型拟合数据 规则化参数:防止过拟合 为了使模型简单,所以需要规则化...

  • 标准化与归一化 with Scikit-learn

    1. 范数公式 L0 范数:所有非零元素个数 L1 范数: L2 范数: Lp 范数: 2. 标准化(Standa...

  • 机器学习面试004—正则化

    1. L1范数和L2范数的区别是什么? Ans:①L1范数——指向量中各个元素的绝对值之和,又叫“稀疏规则算子”(...

  • 理解L1,L2 范数在机器学习中应用

    理解L1,L2 范数 L1,L2 范数即 L1-norm 和 L2-norm,自然,有L1、L2便也有L0、L3等...

  • 机器学习技术博客集

    常见的距离算法和相似度(相关系数)计算方法 机器学习中的范数规则化之(一)L0、L1与L2范数 机器学习中的范数规...

  • L1正则化和L2正则化

    正则化方法是机器学习中用于防止过拟合的方法,L1和L2则分别指L1-范数和L2-范数,下面先介绍一下范数: 1. ...

  • 3.1.2.3L2范数正则化

    与L1范数正则化略有不同的是,L1范数正则化则在原优化目标的基础上,增加了参数向量的L2范数的惩罚项,为了使新优化...

  • 最近看的一些资料,把链接整理一下

    机器学习中的范数规则化之(一)L0、L1与L2范数 https://blog.csdn.net/zouxy09/a...

  • L1正则化和L2正则化的联系和区别

    机器学习中,一般损失函数后边会添加一个额外项,一般称作L1正则化L2正则化或者L1范数L2范数。L1、L2正则化可...

  • 浅谈L0,L1,L2范数及其应用

    原文传送门:浅谈L0,L1,L2范数及其应用 浅谈L0,L1,L2范数及其应用 在线性代数,函数分析等数学分支中,...

网友评论

      本文标题:12.L1范数,L2范数

      本文链接:https://www.haomeiwen.com/subject/gfdokttx.html