吴恩达机器学习笔记(4)——正则化

作者: 机智的神棍酱 | 来源:发表于2018-07-19 22:07 被阅读26次

这章我们主要探讨的是在机器学习中过拟合的情况如何处理

过拟合

过拟合是机器学习中,计算机过度的为了达到目标,导致训练出的模型过度贴合训练集,导致我们使用其他数据就无法得出正确的结果。比如这样:

这个模型就过度贴合每一个数据了,导致加入新的数据,就无法得出正确的预测结果了。如何才能避免过拟合呢,如果我们的特征过多,我们可以删去几个无关紧要的特征,再进行训练。但是通常的情况,我们的每一次特征都是有用的,这里我们就需要来使用正则化这一方式

代价函数

我们上面过拟合的图像是由下面这个模型拟合出来的:

我们可以看出,θ3和θ4这两个参数所在的项对函数图像平滑度影响最大,我们想要拟合出合适的图像,就必须给这两个参数惩罚,不能让他们过大,这样我们就要在代价函数后面加上1000(θ32)和1000(θ42)这样的话,我们的这两个参数如果过大,就会导致代价函数的代价值爆增。但是如果你的特征特别多,你就无法预知那个参数是在高阶项里,所以我们就需要把所以参数都约束住,所以我们的代价函数就变成了这样:

后面给每一个参数都约束住了,这个λ是正则参数,和学习率一样是我们自己设置,来控制参数的约束力度。
要注意的是我们只用约束θ1开始往后的参数

线性回归正则化

线性回归我们知道,我们有两种方法来使我们的代价函数最小化,一种是梯度下降,一种是正规方程。这里我们就分别给大家两种不同的正则化方式。

  • 梯度下降:
    分为两个公式,一个是θ0的:

一个是θ1-θn:


  • 标准方程:
    这里就直接给出公式:

Logistic 回归正则化

这里和回归很像也就直接给出公式了:

后记

总算做的有惊无险的日更了,不过这一章内容不多,所以内容也不多,下一章我们将遇到重头戏神经网络,难度有点大,不知道明天能不能更新了。。

相关文章

  • 七.正则化

    吴恩达机器学习之正则化(Regularization)http://www.cnblogs.com/jianxin...

  • 吴恩达机器学习笔记(4)——正则化

    这章我们主要探讨的是在机器学习中过拟合的情况如何处理 过拟合 过拟合是机器学习中,计算机过度的为了达到目标,导致训...

  • 吴恩达机器学习- 正则化

    过拟合和欠拟合 定义和形态 解决方法减少特征值数量正则化 正则化 惩罚θ系数 线性回归正则化 逻辑回归正则化

  • 吴恩达机器学习—正则化

    过拟合问题 当变量过少时,可能存在欠拟合;当变量过多时,会存在过拟合。过拟合可能对现有数据拟合效果较好,损失函数值...

  • 吴恩达机器学习——正则化

    7.1过拟合的问题 过拟合问题简单来说就是泛化能力差:所建的机器学习模型在训练样本中准确率很高,在验证数据集中准确...

  • 引言

    这个文集是Coursera上吴恩达教授授课的《机器学习》课程的课程笔记与总结,下面是课程的链接:吴恩达教授机器学习...

  • 《吴恩达 - 机器学习》笔记

    学习资源 b站:机器学习(Machine Learning)- 吴恩达(Andrew Ng)网易:吴恩达《机器学习...

  • 内容整理(持续更新)

    机器学习基础 视频教程:吴恩达机器学习-网易云公开课笔记地址:机器学习笔记作业练习:https://github....

  • 30行python代码实现最简单的神经网络

    这篇文章算是看了吴恩达老师的deeplearning视频的课后笔记吧,感谢吴恩达老师致力于机器学习、深度学习的普及...

  • 5.machine_learning_LR_Softmax

    机器学习逻辑回归与softmax 补充阅读资料: 吴恩达老师机器学习课程笔记[https://github.com...

网友评论

    本文标题:吴恩达机器学习笔记(4)——正则化

    本文链接:https://www.haomeiwen.com/subject/lrrxmftx.html