深度学习之偏差与方差

作者: AIAndData | 来源:发表于2017-10-24 20:37 被阅读565次

    机器学习就是利用训练数据去训练一个模型(model),使得这个模型尽可能逼近真实,用来衡量模型好坏的依据是模型的误差,由偏差和方差两部分组成。

    Bias(偏差)

    模型在样本上的输出与真实值之间的误差,即模型本身的精准度,反应出算法的拟合能力。

    Variance(方差)

    模型每一次输出结果与模型输出期望之间的误差,即模型的稳定性,反应出预测的波动情况。

    偏差与方差的关系

    偏差与方差之间按照高低,可以组合成四种关系,如下图所示

    偏差与方差关系

    1、低偏差低方差

    表示模型既准确又稳定,效果最好,但是现实中这种情形很少遇见。

    2、低偏差高方差

    表示模型准确但是稳定性差,对验证数据&测试数据的拟合能力差,即是模型的泛化能力差,产生了过拟合(Overfitting)。

    3、高偏差低方差

    表示模型的准确度差,对数据的拟合能力弱,产生了欠拟合(Underfitting)。

    4、高偏差高方差

    表示模型既不准确又不稳定。

    过拟合与欠拟合

    由上面的分析可知,高方差往往预示着过拟合,高偏差则是欠拟合。

    避免欠拟合(拟合太差)

    1、增加训练样本数据

    2、设计更复杂的神经网络模型

    3、增加迭代次数

    4、更好的优化函数

    5、调整超参数值

    避免过拟合(拟合过度,泛化太差)

    1、设计更简单的神经网络模型

    2、增加训练样本数据

    3、正则化。在损失函数后面添加上L2正则项

    4、使用dropout。随机性使得网络中的部分神经元失效,效果上类似将模型变得更简单。

    5、调整超参数值
    6、尝试其他模型

    7、提前结束训练(early stopping)。即是提前结束优化损失函数。

    简单小结

    在实际工程中,通常可以按下面的来操作

    贝叶斯(最优)误差-理论上的最小误差值(通常比人类误差小)

    可避免偏差-训练误差 与 贝叶斯误差 之间的差值

    方差-验证集误差 与 训练误差 的差值

    当 可避免偏差 大于 方差 时,发生 欠拟合。

    当 方差 大于 可避免偏差 时,发生 过拟合。

    在训练模型时对照以上描述,有助于定位问题,更快找到最适合的模型。

    相关文章

      网友评论

        本文标题:深度学习之偏差与方差

        本文链接:https://www.haomeiwen.com/subject/ynrxpxtx.html