美文网首页
为什么L1稀疏,L2平滑?

为什么L1稀疏,L2平滑?

作者: Andrew_jidw | 来源:发表于2020-03-12 16:44 被阅读0次

L1正则化本身的导数性质

这个角度从权值的更新公式来看权值的收敛结果。

首先来看看L1和L2的梯度(导数的反方向):

所以(不失一般性,我们假定:wi等于不为0的某个正的浮点数,学习速率η 为0.5):

L1的权值更新公式为wi = wi - η * 1 = wi - 0.5 * 1,也就是说权值每次更新都固定减少一个特定的值(比如0.5),那么经过若干次迭代之后,权值就有可能减少到0。

L2的权值更新公式为wi = wi - η * wi = wi - 0.5 * wi,也就是说权值每次都等于上一次的1/2,那么,虽然权值不断变小,但是因为每次都等于上一次的一半,所以很快会收敛到较小的值但不为0。

下面的图很直观的说明了这个变化趋势:


L1能产生等于0的权值,即能够剔除某些特征在模型中的作用(特征选择),即产生稀疏的效果。

L2可以得迅速得到比较小的权值,但是难以收敛到0,所以产生的不是稀疏而是平滑的效果。

几何空间

这个角度从几何位置关系来看权值的取值情况。

直接来看下面这张图


高维我们无法想象,简化到2维的情形,如上图所示。其中,左边是L1图示,右边是L2图示,左边的方形线上是L1中w1/w2取值区间,右边得圆形线上是L2中w1/w2的取值区间,绿色的圆圈表示w1/w2取不同值时整个正则化项的值的等高线(凸函数),从等高线和w1/w2取值区间的交点可以看到,L1中两个权值倾向于一个较大另一个为0,L2中两个权值倾向于均为非零的较小数。这也就是L1稀疏,L2平滑的效果。

参考

https://vimsky.com/article/969.html
https://blog.csdn.net/b876144622/article/details/81276818
https://blog.csdn.net/liangdong2014/article/details/79517638
https://blog.csdn.net/f156207495/article/details/82794151?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task
注:本文仅自己学习使用,如有侵权,请联系博主~

相关文章

  • L1/L2范数

    文章:这个博客 里面介绍了L1、L2范数,说到了L1正则化产生稀疏的权值, L2正则化产生平滑的权值,何为如此? ...

  • 为什么L1稀疏,L2平滑?

    L1正则化本身的导数性质 这个角度从权值的更新公式来看权值的收敛结果。 首先来看看L1和L2的梯度(导数的反方向)...

  • L1稀疏,L2平滑的推理

    介绍L1和L2   L1和L2正则常被用来解决过拟合问题。而L1正则也常被用来进行特征选择,主要原因在于L1正则化...

  • 大话稀疏回归(1)——Lasso、OMP、Lars.....

    大话稀疏回归系列 目录 一.为什么要使回归系数稀疏 二.常用的稀疏回归方法 三.L0和L1、L2正则化 四.求解非...

  • 为什么L1正则化更容易得到稀疏解?

    几乎所有人都知道逻辑回归中加上L1正则化更容易得到稀疏解?但是为什么呢?本文参考知乎l1 相比于 l2 为什么容易...

  • L1和L2正则化

    L1正则:绝对值,Lasso回归L2正则:平方,岭回归 差别 主要差别: L1正则化可以产生稀疏权值矩阵,即产生一...

  • 标签平滑 Label Smoothing 详解及 pytorch

    定义 标签平滑(Label smoothing),像L1、L2和dropout一样,是机器学习领域的一种正则化方法...

  • 机器学习面试004—正则化

    1. L1范数和L2范数的区别是什么? Ans:①L1范数——指向量中各个元素的绝对值之和,又叫“稀疏规则算子”(...

  • DL4J中文文档/开始/速查表-2

    正则化 L1/L2 正则化 L1和L2正则化可以容易地通过配置:.l1(0.1).l2(0.2)添加到网络中。注意...

  • 图像稀疏度的计算

    图像(矩阵)稀疏度的计算 文献[1]中提出了,可以利用L1范数和L2范数之间的差异度来衡量矩阵的稀疏度,公式如下:...

网友评论

      本文标题:为什么L1稀疏,L2平滑?

      本文链接:https://www.haomeiwen.com/subject/fwcmjhtx.html