美文网首页
提前终止----正则化的一种方式

提前终止----正则化的一种方式

作者: JPlino | 来源:发表于2017-09-11 21:53 被阅读0次

训练误差会随着时间的推移逐渐降低但验证集的误差会再次上升,这种现象几乎一定会发生。这意味着我们只要返回使验证集误差最低的参数设置,就可以获得验证集误差更低的模型(并且因此有希望获得更好的测试误差)。在每次验证集误差有所改善后,当验证集上的误差在事先指定的循环次数内没有进一步改善时,算法就会终止。


超参数的训练


超参数在验证集上具有 U 型性能曲线。很多控制模型容量的超参数在验证集上都是这样的 U 型性能曲线 。在提前终止的情况下,我们通过控制拟合训练集的步数来控制模型的有效容量。大多数超参数的选择必须使用高代价的猜测和检查过程,我们需要在训练开始时猜测一个超参数,然后运行几个步骤检查它的训练效果。 ‘‘训练时间’’ 是唯一只要跑一次训练就能尝试很多值的超参数。通过提前终止自动选择超参数的唯一显的代价是训练期间要定期评估验证集。在理想情况下,这可以并行在与主训练过程分离的机器上,或独立的 CPU,或独立的 GPU 上完成。如果没有这些额外的资源,可以使用比训练集小的验证集或较不频繁地评估验证集来减小评估代价,较粗略地估算取得最佳的训练时间。

提前终止的训练策略

提前终止无需破坏学习动态就可以实现。提前终止需要有验证集,一般有两个训练的步骤:

提前终止 为什么具有正则化的效果

想象用学习率 ϵ 进行 τ 个优化步骤(对应于 τ 个训练迭代)。我们可以将 ϵτ 作为有效容量的度量。假设梯度有界,限制迭代的次数和学习速率能够限制从θ0 到达的参数空间的大小,如图 7.4 所示。在这个意义上, ϵτ 的效果就好像是权重衰减系数的倒数。

相关文章

  • 提前终止----正则化的一种方式

    训练误差会随着时间的推移逐渐降低但验证集的误差会再次上升,这种现象几乎一定会发生。这意味着我们只要返回使验证集误差...

  • 5- 深度学习之神经网络核心原理与算法-正则化

    正则化 正则化是机器学习中一种常见的概念。正则化不仅在深度学习中有,在传统的机器学习中也有。 单纯从名字上不好理解...

  • 正则表达式笔记(1)

    正则对象(引用数据类型) 正则:是一种字符串处理规则JS中的正则,一种引用数据类型(RegExp)正则的编写方式字...

  • 机器学习 - 线性回归中的正则化

    为什么要正则化? 正则化的本质是什么? 正则化有哪些方法? 1.为什么要正则化? 正则化可以解决模型过拟合的问题,...

  • Python数据科学:正则化方法!

    本文主要介绍,Python数据科学:正则化方法。正则化方法的出现,通过收缩方法(正则化方法)进行回归。 正则化方法...

  • 关于正则化的理解

    什么是正则化?为什么要正则化?怎样正则化? 对正则化化一直不是十分理解,只知道正则化可以防止过拟合。为什么给los...

  • 吴恩达深度学习笔记(32)-Dropout正则化Dropout

    dropout 正则化(Dropout Regularization) 除了L2正则化,还有一个非常实用的正则化方...

  • 正则化

    一、正则化基础 正则化等价于结构风险最小化,就是在经验风险后面加上了表示模型复杂度的正则化项或惩罚项。 正则化的作...

  • 吴恩达机器学习- 正则化

    过拟合和欠拟合 定义和形态 解决方法减少特征值数量正则化 正则化 惩罚θ系数 线性回归正则化 逻辑回归正则化

  • Logistic模型及其Scikit-learn实现

    penalty:正则化参数,可选l1或l2,分别对应l1正则化和l2正则化,默认为l2正则化。一般来说l2正则化可...

网友评论

      本文标题:提前终止----正则化的一种方式

      本文链接:https://www.haomeiwen.com/subject/vqmfsxtx.html