美文网首页
3.4正则化:解决过拟合问题

3.4正则化:解决过拟合问题

作者: Yuanshuo | 来源:发表于2019-08-08 15:41 被阅读0次

解决过拟合问题

当有过多变量,同时只有非常少的训练集时,就会出现过度拟合的问题。
解决过度拟合问题,有两种方法:

  • 尽量减少选取的变量的数量
    • 具体而言可以人工检测变量的条目,保留重要的特征,舍弃无用特征
    • 模型选择算法
  • 正则化
    • 保留所有的特征变量,通过减少参数 θ_j 的数量级或值的大小

梯度下降中的过拟合问题

欠拟合(under fitting)/高偏差(high bias) 刚好合适 过拟合(over fitting)/高方差(variance)
image image image

逻辑回归中的过拟合问题

欠拟合 刚好合适 过拟合
image image image

代价函数

如图,过度拟合了数据,因此泛化性并不是很好。

image

通过添加惩罚项,从而使\theta_3\theta_4 足够的小。尽量减少代价函数的均方误差。

image

对于上面函数,对其添加一些项:

image

现在,如果想要最小化这个函数,需要尽量减少\theta_3\theta_4的值。
如果减少了这两项的值,就像上面式子中忽略了后面的两项:

image

最终得到一个近似的二次函数,从而达到恰当的拟合数据的表达式。

通常情况下讲,参数值减少的越多,函数越光滑,因此就不易发生过拟合问题。

正则化优化目标

正则化之后的代价函数:

image

正规化项中的 λ 称为正则化参数

参数 λ 就是用来控制两个不同目标之间的平衡,目标就是平衡拟合训练的目的和保持参数值较小的目的。

只要确保使用了正则化目标的方法,就可以得到一个类似于二次函数但并不是真正的二次函数的一条曲线:

image

在正则化线性回归中,如果正则化参数值被设定为非常大,将会非常大的惩罚参数,会使得所有参数接近于0.

image

正则化线性回归

基于梯度下降

正则化线性回归的优化目标:

image image

对于\theta_j可以改写成:

image

具体来讲,这一项的值:

image

通常是小于1的具体的实数(通常情况下是比1小一点点的值),所以对\theta_j更新的结果可看作是被替换为\theta_j的0.99倍(把\theta_j向0压缩一点点)。

基于正规方程

\theta=(X^{T}X + \lambda \begin{bmatrix} 0 & 0 & … & 0 \\ 0 & 1 \\ … & … & … \\ 0 & 0 & … & 1 \\ \end{bmatrix} )^{-1}X^{T}y

矩阵维度(n+1)\times(n+1)

正则化逻辑回归

image

给代价函数增加一个正则化表达式,得到代价函数:

image

要最小化代价函数,通过求导,得出梯度下降算法为:

Repeat{

{\theta_0}:={\theta_0}-a\frac{1}{m}\sum\limits_{i=1}^{m}{(({h_\theta}({{x}^{(i)}})-{{y}^{(i)}})x_{0}^{(i)}})

{\theta_j}:={\theta_j}-a[\frac{1}{m}\sum\limits_{i=1}^{m}{({h_\theta}({{x}^{(i)}})-{{y}^{(i)}})x_{j}^{\left( i \right)}}+\frac{\lambda }{m}{\theta_j}]

j=1,2,...n

}

相关文章

  • 3.4正则化:解决过拟合问题

    解决过拟合问题 当有过多变量,同时只有非常少的训练集时,就会出现过度拟合的问题。解决过度拟合问题,有两种方法: 尽...

  • task03

    过拟合、欠拟合及其解决方案 过拟合与欠拟合 欠拟合 过拟合 解决方案 权重衰减 L2 范数正则化 范数正则化在模型...

  • 机器学习 - 线性回归中的正则化

    为什么要正则化? 正则化的本质是什么? 正则化有哪些方法? 1.为什么要正则化? 正则化可以解决模型过拟合的问题,...

  • 吴恩达机器学习- 正则化

    过拟合和欠拟合 定义和形态 解决方法减少特征值数量正则化 正则化 惩罚θ系数 线性回归正则化 逻辑回归正则化

  • 正则化逻辑回归(Regularization)

    1. 过拟合的问题(The problem of overfitting) 正则化可以减轻过拟合问题。欠拟合(un...

  • 总结

    线性回归,用线去拟合数据,预测连续值逻辑回归(对数几率回归,简称对率回归),用来解决分类问题正则化,解决过拟合问题...

  • Andrew Ng ML(4)——过拟合&正则化

    overfitting(过拟合) Q:如何解决过拟合? 正则化overview:加入惩罚项(其实就是使某些θ趋于0...

  • pytorch之Dropout

    解决loss过拟合问题: 在loss函数中加入正则化项,Dropout等途径 Dropout 带Dropout的网...

  • 深度学习中的Dropout方法

    上周看了L1,L2正则化。简单来说,L2正则化是把权重变小,达到简化模型来解决过拟合问题;L1正则化是把权重向零靠...

  • 机器学习系列(二十五)——正则化之Ridge回归与LASSO回归

    模型正则化Regularization 解决过拟合问题或者说解决模型含有巨大方差误差问题,一个非常有效的方法是模型...

网友评论

      本文标题:3.4正则化:解决过拟合问题

      本文链接:https://www.haomeiwen.com/subject/unjxjctx.html