美文网首页
ml-正则化(regularization)

ml-正则化(regularization)

作者: 天凉玩个锤子 | 来源:发表于2019-11-28 23:38 被阅读0次

    过拟合(over-fitting)

    过拟合:过于强调拟合原始数据,而丢失了算法的本质:预测新数据。

    欠拟合 恰好 过拟合 三者对比

    分类问题中也存在类似的问题:


    解决办法:

    • 丢弃一些不能帮助正确预测的特征
      手工选择保留哪些特征或者使用一些模型选择的算法(例如PCA)
    • 正则化(magnitude)
      保留所有的特征,但是减少参数的大小。

    调整代价函数

    回归模型

    正是高次项导致了过拟合的产生。
    目标:让高次项系数接近于0。
    修改代价函数:

    \theta_3\theta_4设置惩罚

    问题:并不知道其中哪些特征需要惩罚
    思路:对所有特征进行惩罚,让代价函数最优化的软件来选择这些惩罚的程度。

    注:通常不对\theta_0进行惩罚。

    分析:

    • \lambda过大,除\theta_0以外其他所有参数都较小,模型变成h_\theta(x)=\theta_0,是一条平行于x的直线,导致欠拟合。

    正则化线性回归

    • 梯度下降求解

    可以看到,每次除了\theta_0以外\theta_i均在原有的算法更新规则的基础上减少了一个额外的值。

    • 正规方程求解

    正则化的逻辑回归模型

    对于逻辑回归,也给代价函数J(\theta)增加一个正则化的表达式,得到:

    增加一项

    计算过程同上文的线性回归,但是由于模型h_\theta(x)不同,所以二者有本质不同。

    注意:
    \theta_0不参与任何一个正则化。

    相关文章

      网友评论

          本文标题:ml-正则化(regularization)

          本文链接:https://www.haomeiwen.com/subject/owomwctx.html