美文网首页
39、为什么我的结果不如我想的那么好?你可能过度拟合了

39、为什么我的结果不如我想的那么好?你可能过度拟合了

作者: 攻城狮笔记 | 来源:发表于2019-03-02 08:57 被阅读0次

我们都知道运行分析的满意度,并看到结果以我们希望的方式回归:80%的准确度; 85%; 90%?

只是转向我们正在编写的报告的结果部分,并将数字放入其中,这种诱惑很强烈。但是等待:一如既往,这并不是那么简单。

屈服于这种特殊的诱惑可能会破坏其他完全有效的分析的影响。

对于大多数机器学习算法,考虑如何生成这些结果非常重要:不仅仅是算法,而是数据集及其使用方式会对获得的结果产生重大影响。应用于太小数据集的复杂算法可能导致过度拟合,从而导致误导性良好的结果。

光在隧道的尽头

隧道尽头的光线
照片由darkday提供,保留一些权利

什么是过度拟合?

当机器学习算法(例如分类器)不仅识别数据集中的信号而且识别噪声时,发生过度拟合。所有数据集都很吵。实验中记录的值可能会受到许多问题的影响:

  • 机械问题,例如热量或湿度改变记录装置的特性;
  • 身体问题:有些老鼠比其他老鼠大;
  • 或者只是被调查系统中的固有噪音。例如,来自DNA的蛋白质的产生本质上是有噪声的,不是如通常可视化的那样在稳定的流中发生,而是在一系列步骤中,每个步骤是随机的,取决于在适当时间存在合适的分子。
  • 从人类受试者收集的数据同样受到诸如一天中的时间,受试者的健康状况,甚至他们的情绪等因素的影响。

随着数据集中参数数量的增加,情况会恶化。例如,具有100个记录的数据集(每个具有500个观测值)非常容易过度拟合,而具有5个观测值的1000个记录每个将远不是问题。

当您的模型相对于数据点数量的参数太多时,您很容易高估模型的效用。

为什么过度拟合问题?

大多数机器学习算法的目的是找到从数据中的信号,重要值到输出的映射。噪声干扰了这种映射的建立。

过度拟合的实际结果是,似乎在其训练数据上表现良好的分类器可能对来自同一问题的新数据表现不佳,可能非常糟糕。从数据集到数据集,数据中的信号几乎相同,但噪声可能非常不同。

如果分类器适合噪声和信号,它将无法将信号与新数据上的噪声分开。开发大多数分类器的目的是让它们以可预测的方式推广到新数据。

过度拟合的模型通常具有较差的预测性能,因为它可能夸大数据中的微小波动

克服过度拟合

克服过度拟合有两种主要方法:三组验证和交叉验证。

三套验证

道德分析师如何克服过度拟合的问题?最简单,最难实现的解决方案就是拥有大量的数据。有了足够的数据,分析师就可以在一组数据(训练集)上开发和算法,然后在一个全新的,看不见的数据集上测试其性能,这些数据集由相同的方法(测试集)生成。

仅使用两个数据集的问题是,只要您使用测试集,它就会被污染。对集合1进行训练,对集合2进行测试,然后使用这些测试的结果来修改算法的过程意味着集合2实际上是训练数据的一部分。

为了完全客观,需要第三个数据集(验证集)。验证集应保持光荣隔离,直到所有培训完成。验证集上训练的分类器的结果是应该报告的结果。

一种流行的方法是在训练集上训练分类器,并且每几次迭代,在测试集上测试其性能。最初,当数据集中的信号拟合时,训练集和测试集的误差将下降。

然而,最终,分类器将开始适应噪声,尽管训练集上的错误率仍然降低,但测试集上的错误率将开始增加。此时应停止训练,并将训练好的分类器应用于验证集以估计实际性能。

这个过程因此变成:

  1. 开发算法;
  2. 第1组训练(训练集);
  3. 测试第2组(测试装置);
  4. 使用步骤3的结果修改算法或停止训练;
  5. 迭代步骤1到4直到满意算法的结果;
  6. 在第3组(验证集)上运行算法;
  7. 报告步骤6的结果。

可悲的是,很少有项目产生足够的数据,使分析师能够沉迷于三数据集方法的奢侈品。必须找到一种替代方案,其中每个结果由分类器生成,该分类器在其训练中未使用该数据项。

交叉验证

通过交叉验证,整个可用数据集被分成大小相等或更小的子集。假设我们有100个观测数据集。我们可以将它分成33个,33个和34个观察值的三个子集。我们将这三个子集称为set1,set2和set3。

为了开发我们的分类器,我们使用了三分之二的数据; 说set1和set2,训练算法。然后,我们在set3上运行分类器,到目前为止看不见,并记录这些结果。

然后使用另外的三分之二,例如set1和set3重复该过程,并记录set2上的结果。类似地,在set2和set3上训练的分类器产生set1的结果。

然后组合三个结果集,并成为整个数据集的结果。

上述过程称为三重交叉验证,因为使用了三个数据集。可以使用任意数量的子集; 十倍交叉验证被广泛使用。当然,最终的交叉验证方案是在除了一个案例之外的所有数据上训练每个分类器,然后在左边的情况下运行它。这种做法被称为留一法验证。

交叉验证对于防止数据建议的测试假设(称为“III型错误”)非常重要,特别是在进一步的样品有害,昂贵或无法收集的情况下。

交叉验证的优点,以避免过度拟合

任何形式的交叉验证的主要优点是每个结果都是使用未经过该结果训练的分类器生成的。

此外,因为每个分类器的训练集由大多数数据组成,所以分类器虽然可能略有不同,但应该大致相同。在留一法的情况下尤其如此,其中每个分类器在几乎相同的数据集上训练。

交叉验证的缺点

使用交叉验证有两个主要缺点:

  1. 用于生成结果的分类器不是单个分类器,而是一组密切相关的分类器。如前所述,这些分类器应该非常相似,并且这个缺点通常不被认为是主要的。
  2. 测试集不能再用于修改分类算法。因为算法是针对大多数数据进行训练,然后在较小的子集上进行测试,所以这些结果不再被视为“看不见”。无论结果如何,都应该报告。从理论上讲,这是一个重大缺陷,但在实践中很少出现这种情况。

总之,如果数据充足,则应使用三组验证方法。但是,当数据集有限时,交叉验证会以原则方式最佳地利用数据。

相关文章

  • 39、为什么我的结果不如我想的那么好?你可能过度拟合了

    我们都知道运行分析的满意度,并看到结果以我们希望的方式回归:80%的准确度; 85%; 90%? 只是转向我们正在...

  • TensorFlow-拟合

    过拟合overfitting 过于的拟合 拟合的结果 欠拟合 拟合完美 过度拟合 过度拟合的解决方法 减少数据 平...

  • 6.正则化来处理过度拟合

    过拟合(Overfitting) 先看图解释过度拟合 左边的结果,拟合不好,偏差过高,意味着系统误差设置过高 中间...

  • 过度拟合

    针对拟合函数,通常会有三种状况,分别是欠拟合,正常和过度拟合 欠拟合是指假设函数对于样本集本身就拟合结果不佳,很容...

  • Regularizing your neural network

    Regularizing 如果怀疑神经网络过度拟合了数据,即存在高方差问题那么最先想到的方法可能就是正则化,另一个...

  • 过度拟合和规范化

    过度拟合(overfitting)、过度训练(overtraining) 拥有大量自由参数的模型能很好地拟合已有的...

  • 专题《算法》4:想得太多?你可能过度拟合了

    专题目录 算法的世界最优停止理论,什么时候停止观望一个关于时间管理的数学解决方案想得太多?你可能过度拟合了博弈论,...

  • 过拟合(Overfitting) 与 Dropout

    一、过拟合(Overfitting) Overfitting 也被称为过度学习,过度拟合。 它是机器学习中常见的问...

  • 过度拟合

    你在森林里迷路了,有一份详细的地图,与一颗天上的北极星,你参考哪个?肯定是北极星啊。 森林地形复杂,靠前人总结下来...

  • 我是你的话 可能早就会逃跑了

    假如我是你 我不会那么坚强 假如我是你 我不会那么勉强 假如我是你 我不会控制我的情绪 假如我是你 我可能早已崩溃...

网友评论

      本文标题:39、为什么我的结果不如我想的那么好?你可能过度拟合了

      本文链接:https://www.haomeiwen.com/subject/vwosuqtx.html