美文网首页机器学习量化
正则化为什么能防止过拟合

正则化为什么能防止过拟合

作者: 梅_梅 | 来源:发表于2018-11-26 19:36 被阅读18次

1. 概述

在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上的error渐渐减小,但是在验证集上的error却反而渐渐增大——因为训练出来的网络过拟合了训练集,对训练集外的数据却不工作。

image.png

为了防止overfitting,可以用的方法有很多,下文就将以此展开。有一个概念需要先说明,在机器学习算法中,我们常常将原始数据集分为三部分:

  1. training data
  2. validation data
  3. testing data

这个validation data是什么?它其实就是用来避免过拟合的,在训练过程中,我们通常用它来确定一些超参数(比如根据validation data上的accuracy来确定early stopping的epoch大小、根据validation data确定learning rate等等)。那为啥不直接在testing data上做这些呢?因为如果在testing data做这些,那么随着训练的进行,我们的网络实际上就是在一点一点地overfitting我们的testing data,导致最后得到的testing accuracy没有任何参考意义。因此,training data的作用是计算梯度更新权重,validation data如上所述,testing data则给出一个accuracy以判断网络的好坏。

避免过拟合的方法有很多:

  1. early stopping
  2. 数据集扩增(Data augmentation)
  3. 正则化(Regularization)包括L1、L2(L2 regularization也叫weight decay)
  4. dropout。

2. L2范数(L2-normal)

L2正则化就是在代价函数后面再加上一个正则化项:


image.png

C0代表原始的代价函数,后面那一项就是L2正则化项,它是这样来的:所有参数w的平方的和,除以训练集的样本大小n。λ就是正则项系数,权衡正则项与C0项的比重。另外还有一个系数1/2,1/2经常会看到,主要是为了后面求导的结果方便,后面那一项求导会产生一个2,与1/2相乘刚好凑整。

L2正则化项是怎么避免overfitting的呢?我们推导一下看看,先求导:

image.png

可以发现L2正则化项对b的更新没有影响,但是对于w的更新有影响:

image.png

在不使用L2正则化时,求导结果中w前系数为1,现在w前面系数为 1−ηλ/n ,因为η、λ、n都是正的,所以 1−ηλ/n小于1,它的效果是减小w,这也就是权重衰减(weight decay)的由来。当然考虑到后面的导数项,w最终的值可能增大也可能减小

另外,需要提一下,对于基于mini-batch的随机梯度下降,w和b更新的公式跟上面给出的有点不同:

image.png

对比上面w的更新公式,可以发现后面那一项变了,变成所有导数加和,乘以η再除以m,m是一个mini-batch中样本的个数。

到目前为止,我们只是解释了L2正则化项有让w“变小”的效果,但是还没解释为什么w“变小”可以防止overfitting?一个所谓“显而易见”的解释就是:更小的权值w,从某种意义上说,表示网络的复杂度更低,对数据的拟合刚刚好(这个法则也叫做奥卡姆剃刀),而在实际应用中,也验证了这一点,L2正则化的效果往往好于未经正则化的效果。

过拟合的时候,拟合函数的系数往往非常大,为什么?如下图所示,过拟合,就是拟合函数需要顾忌每一个点,最终形成的拟合函数波动很大。在某些很小的区间里,函数值的变化很剧烈。这就意味着函数在某些小区间里的导数值(绝对值)非常大,由于自变量值可大可小,所以只有系数足够大,才能保证导数值很大

image.png

而正则化是通过约束参数的范数使其不要太大,所以可以在一定程度上减少过拟合情况

参考文章

相关文章

  • 正则化为什么能防止过拟合

    1. 概述 在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观...

  • 正则化防止过拟合

    机器学习中使用「正则化来防止过拟合」到底是一个什么原理?为什么正则化项就可以防止过拟合? 正则化,也叫Reguli...

  • 正则化为什么能防止过拟合(重点地方标红了)

    正则化方法:防止过拟合,提高泛化能力 在训练数据不够多时,或者overtraining时,常常会导致overfit...

  • 关于正则化的理解

    什么是正则化?为什么要正则化?怎样正则化? 对正则化化一直不是十分理解,只知道正则化可以防止过拟合。为什么给los...

  • 机器学习-正则化

    正则化:简单性 过拟合 通过降低复杂模型的复杂度来防止过拟合,这种原则称为正则化也就是说,并非只是以最小化损失(经...

  • 机器学习中的正则化方法有哪些

    正则化 对学习算法进行修改,旨在减少泛化误差,防止过拟合。 1.1 正则化方法 参数范数惩罚(Parameter ...

  • Intel-ML笔记03 正则化和特征选择

    防止欠/过拟合 正则化 岭回归(ridge regression(L2)) Lasso Regression(L1...

  • 正则化总结

    正则化的作用 正则化的作用就是用来避免或者减少过拟合现象。关于什么是过拟合什么是欠拟合就不再花费过多篇幅了。 过拟...

  • 正则化方法

    正则化的作用 正则化是为了防止过拟合采取的策略,主要的正则化方法有L1、L2、dropout、dropconnec...

  • task03

    过拟合、欠拟合及其解决方案 过拟合与欠拟合 欠拟合 过拟合 解决方案 权重衰减 L2 范数正则化 范数正则化在模型...

网友评论

    本文标题:正则化为什么能防止过拟合

    本文链接:https://www.haomeiwen.com/subject/dcvbqqtx.html