美文网首页
正则化逻辑回归(Regularization)

正则化逻辑回归(Regularization)

作者: Thinkando | 来源:发表于2018-08-28 23:50 被阅读116次
    1. 过拟合的问题(The problem of overfitting)

    正则化可以减轻过拟合问题。
    欠拟合(underfitting)
    高偏差(high bias)
    过拟合(overfitting)
    高方差(high variance)
    泛化(generalize):指假设模型能应用到新样本的能力。

    • 特征太多,数据量太少,过度拟合就会发生:


      image.png

    解决过度拟合方法:
    1.减少特征数量:
    手动选择
    使用模型选择算法(后面会讲)

    1. 正则化(regularization)
      保留所有的特征,但是减少参数θj的大小(magnitude/values)

      当我们有很多特征的时候依然工作很好,并且每个特征都对预测y有一定的贡献 image.png
    2. 代价函数(Cost function)
    • 正则化思想:减小高次项的θ值,使得曲线平滑。


      image.png
    • 加入正则项。λ是正则化参数,保持我们能很好的拟合数据,保持参数较小从而避免过拟合。


      image.png
      image.png

      λ不能太大,否则就是一条直线,(underfitting/too high bias),肯定也不能太小,否则就没效果了。


      image.png
    3. 正则化线性回归(Regularization linear regression)

    梯度下降(gradient decent)算法下正则化线性回归的计算:
    θ0不参与,所以排除在外。
    相当于把θj缩小了。


    image.png
    • 在正规方程(normal equation)中正则化线性回归的计算:


      image.png
    • 加入正则化项后,只要 λ>0 那么该矩阵可逆。


      image.png
    4 正则化逻辑回归(Regularization logistic regression)
    • 原理相同,加入正则化项,然后计算:


      image.png
      image.png

    相关文章

      网友评论

          本文标题:正则化逻辑回归(Regularization)

          本文链接:https://www.haomeiwen.com/subject/isycwftx.html