美文网首页
# L1正则化为什么比L2更容易获得稀疏矩阵

# L1正则化为什么比L2更容易获得稀疏矩阵

作者: ifjgm | 来源:发表于2022-03-22 20:04 被阅读0次

本文转载自王赟maigo 在知乎的回答,若有侵权,联系删除。
原文链接
假设费用函数 L 与某个参数 x 的关系如图所示:

image

则最优的 x 在绿点处,x 非零。
现在施加 L2 regularization,新的费用函数(L+Cx^2)如图中蓝线所示:

image

最优的 x 在黄点处,x 的绝对值减小了,但依然非零。
而如果施加 L1 regularization,则新的费用函数(L+C|x|)如图中粉线所示:

image
  • 最优的 x 就变成了 0。这里利用的就是绝对值函数的尖峰。
  • 两种 regularization 能不能把最优的 x 变成 0,取决于原先的费用函数在 0 点处的导数。
  • 如果本来导数不为 0,那么施加 L2 regularization 后导数依然不为 0,最优的 x 也不会变成 0。
  • 而施加 L1 regularization 时,只要 regularization 项的系数 C 大于原先费用函数在 0 点处的导数的绝对值,x = 0 就会变成一个极小值点。
  • 上面只分析了一个参数 x。事实上 L1 regularization 会使得许多参数的最优值变成 0,这样模型就稀疏了。

相关文章

  • # L1正则化为什么比L2更容易获得稀疏矩阵

    本文转载自王赟maigo 在知乎的回答,若有侵权,联系删除。原文链接[https://www.zhihu.com/...

  • L1和L2正则化

    L1正则:绝对值,Lasso回归L2正则:平方,岭回归 差别 主要差别: L1正则化可以产生稀疏权值矩阵,即产生一...

  • 为什么L1正则化更容易得到稀疏解?

    几乎所有人都知道逻辑回归中加上L1正则化更容易得到稀疏解?但是为什么呢?本文参考知乎l1 相比于 l2 为什么容易...

  • DL4J中文文档/开始/速查表-2

    正则化 L1/L2 正则化 L1和L2正则化可以容易地通过配置:.l1(0.1).l2(0.2)添加到网络中。注意...

  • L1/L2范数

    文章:这个博客 里面介绍了L1、L2范数,说到了L1正则化产生稀疏的权值, L2正则化产生平滑的权值,何为如此? ...

  • 大话稀疏回归(1)——Lasso、OMP、Lars.....

    大话稀疏回归系列 目录 一.为什么要使回归系数稀疏 二.常用的稀疏回归方法 三.L0和L1、L2正则化 四.求解非...

  • Logistic模型及其Scikit-learn实现

    penalty:正则化参数,可选l1或l2,分别对应l1正则化和l2正则化,默认为l2正则化。一般来说l2正则化可...

  • 图像稀疏度的计算

    图像(矩阵)稀疏度的计算 文献[1]中提出了,可以利用L1范数和L2范数之间的差异度来衡量矩阵的稀疏度,公式如下:...

  • L1稀疏,L2平滑的推理

    介绍L1和L2   L1和L2正则常被用来解决过拟合问题。而L1正则也常被用来进行特征选择,主要原因在于L1正则化...

  • L1正则化和L2正则化的联系和区别

    机器学习中,一般损失函数后边会添加一个额外项,一般称作L1正则化L2正则化或者L1范数L2范数。L1、L2正则化可...

网友评论

      本文标题:# L1正则化为什么比L2更容易获得稀疏矩阵

      本文链接:https://www.haomeiwen.com/subject/ewfqjrtx.html