美文网首页
机器学习中的范数规则化

机器学习中的范数规则化

作者: yingtaomj | 来源:发表于2017-06-14 11:18 被阅读95次

L0、L1与L2范数

机器学习的目标:在规则化参数的同时最小化误差


监督学习的通用目标
  • 第一项:误差
  • 第二项:规则化函数,约束我们的模型尽量的简单

对于第一项Loss函数,如果是Square loss,那就是最小二乘了;如果是Hinge Loss,那就是著名的SVM了;如果是exp-Loss,那就是牛逼的 Boosting了;如果是log-Loss,那就是Logistic Regression了。

绿色的线为 square loss ,蓝色的线为 hinge loss, 红的的线为负 log 损失。
hinge loss (E(z)=max(0,1-z))

yi时候正确的输出,wx+b是预测值,只有当他们符号相同时,loss为0,否则loss function就会变大。loss function是不能微分的,只能求它的次梯度subgradient:


c即是它的次导数

对于第二项

  • L0范数是指向量中非0的元素的个数
  • L1范数是指向量中各个元素绝对值之和,是L0范数的最优凸近似,任何的规则化算子,如果他在Wi=0的地方不可微,并且可以分解为一个“求和”的形式,那么这个规则化算子就可以实现稀疏。
    好处:特征选择,可解释性
  • L2范数:它的回归叫“岭回归”,也叫它“权值衰减”,可以防止过拟合。 L2范数是指向量各元素的平方和然后求平方根。
    好处:防止过拟合,优化计算(有助于处理 condition number不好的情况下矩阵求逆很困难的问题)
    L1和L2的区别:


    最小化的过程坡度变化, L1人称Lasso,L2人称Ridge。
    L1在和每个坐标轴相交的地方都有“角”出现,即更多的0

核范数与规则项参数选择

核范数||W||*是指矩阵奇异值的和。矩阵奇异值是矩阵奇异值分解后中间的对角矩阵的对角线上的元素。
假如rank (X)远小于m和n,则我们称X是低秩矩阵。低秩矩阵每行或每列都可以用其他的行或列线性表出,可见它包含大量的冗余信息。
rank(w)的凸近似就是核范数||W||*。
应用:

  • 矩阵填充(用户对物品的喜好矩阵的填充)
  • 鲁棒主成分分析:将含有噪声的矩阵分解成低秩的(不含噪声)和稀疏的(噪声)矩阵相加。


    含噪声的矩阵=...
    转化为凸优化问题
  • 背景建模


    背景:低秩矩阵,前景:稀疏矩阵

相关文章

  • 机器学习技术博客集

    常见的距离算法和相似度(相关系数)计算方法 机器学习中的范数规则化之(一)L0、L1与L2范数 机器学习中的范数规...

  • 最近看的一些资料,把链接整理一下

    机器学习中的范数规则化之(一)L0、L1与L2范数 https://blog.csdn.net/zouxy09/a...

  • 机器学习中的范数规则化

    L0、L1与L2范数 机器学习的目标:在规则化参数的同时最小化误差 第一项:误差 第二项:规则化函数,约束我们的模...

  • 机器学习正则化之L0、L1、L2范数

    记录一下:简要介绍机器学习规则化L0,L1及L2范数

  • 机器学习中的范数规则化之L0、L1与L2范数

    过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。 监督机器学习问题无非就是“minimi...

  • 机器学习中如何解决过拟合

     机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。  监...

  • AI数学基础31-范数(norm)

    机器学习中,经常用到范数(norm)这一概念,本文对线性代数中,范数的定义、性质和用途,总结如下: 定义: 范数(...

  • Week 2

    范数 因为数值分析课程接触到范数的概念,想知道它到底有什么用,正好这篇文章提到它在机器学习中的作用。 机器学习中的...

  • MachineLearning

    # L0, L1, L2规则化 1. L0范数是指向量中非0的元素的个数。如果我们用L0范数来规则化一个参数矩阵W...

  • super-parameters

    L0, L1, L2规则化 L0范数是指向量中非0的元素的个数。如果我们用L0范数来规则化一个参数矩阵W的话,就是...

网友评论

      本文标题: 机器学习中的范数规则化

      本文链接:https://www.haomeiwen.com/subject/sndsqxtx.html