美文网首页
第二次打卡 Task03

第二次打卡 Task03

作者: 几时见得清梦 | 来源:发表于2020-02-19 19:25 被阅读0次

一、过拟合、欠拟合及其解决方案

训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。
机器学习模型应关注降低泛化误差。

  1. 验证数据集
    从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。不可以使用测试数据选择模型,如调参。由于无法从训练误差估计泛化误差,因此也不应只依赖训练数据选择模型。鉴于此,我们可以预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。这部分数据被称为验证数据集,简称验证集(validation set)。例如,我们可以从给定的训练集中随机选取一小部分作为验证集,而将剩余部分作为真正的训练集。
  2. K折交叉验证
    由于验证数据集不参与模型训练,当训练数据不够用时,预留大量的验证数据显得太奢侈。一种改善的方法是K折交叉验证(K-fold cross-validation)。在K折交叉验证中,我们把原始训练数据集分割成K个不重合的子数据集,然后我们做K次模型训练和验证。每一次,我们使用一个子数据集验证模型,并使用其他K-1个子数据集来训练模型。在这K次训练和验证中,每次用来验证模型的子数据集都不同。最后,我们对这K次训练误差和验证误差分别求平均。

二、梯度消失、梯度爆炸

深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。
当神经网络的层数较多时,模型的数值稳定性容易变差。

三、循环神经网络进阶

RNN存在的问题:梯度较容易出现衰减或爆炸(BPTT)
GRU门控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系

相关文章

  • 《动手学深度学习》第三天2020-02-14

    2) 第二次打卡内容(2月15日-17日)截止打卡时间:2/17-22:00 Task03:过拟合、欠拟合及其解决...

  • 第二次打卡 Task03

    一、过拟合、欠拟合及其解决方案 训练误差(training error)和泛化误差(generalization ...

  • 2月10日【叶妈】组清单体打卡文

    欣然老师第二次打卡文 瑞秋老师第二次打卡文 小梁老师打卡文 木子老师第二次打卡文

  • 第二次打卡Task03、Task04、Task05

    过拟合、欠拟合及其解决方案 训练误差和泛化误差 模型选择:model selection 在比赛中一般采用5折的交...

  • task03

    过拟合、欠拟合及其解决方案 过拟合与欠拟合 欠拟合 过拟合 解决方案 权重衰减 L2 范数正则化 范数正则化在模型...

  • Task03

    一 过拟合与欠拟合及其解决方案 1 训练误差与泛化误差 训练误差:在训练集上的数据误差; 泛化误差:在其他任意数据...

  • Task03 彩色空间互转

    Datawhale 计算机视觉基础-图像处理(上)-Task03 彩色空间互转 3.1 简介 图像彩色空间互转在图...

  • Numpy组队学习 Task03打卡

    数组操作 更改形状 通过修改shape属性改变数组形状 flat方法将数组转换为一维的迭代器 flatten方法将...

  • 5月组队学习03:基于线性模型的方法

    Task03:线性模型(3天) ● 理解线性回归 ● 掌握主成分分析的异常检测方法 1、引言 真实数据集中不同维度...

  • 2020-02-21

    继续打卡!CSS基础第二次!

网友评论

      本文标题:第二次打卡 Task03

      本文链接:https://www.haomeiwen.com/subject/mlyjfhtx.html