美文网首页
深度学习dropout作用与原理

深度学习dropout作用与原理

作者: 上弦同学 | 来源:发表于2018-11-25 21:40 被阅读0次

Dropout 作用:

避免过拟合。

Dropout与L1和L2正则化区别:

L1和L2正则化通过在损失函数上增加参数的惩罚项,通过对参数大小的约束,起到类似降维的作用(若高阶项参数接近0,相当于降阶)。

进而简化模型,提高模型泛化力,避免过拟合。

L1和L2正则化修改代价函数,Dropout修改神经网络本身。

image.png

如图所示,dropout直接让一些神经元随机停止工作。

举个不恰当的例子,大家感受一下
勤劳的神经元们事无巨细地干活,花大量时间把不重要的特征都学到了(过拟合),按这种方式去做其他事效率就很低(模型泛化能力差)

现在随机挑选几个神经元组成小团队高效地工作(精兵简政),不仅速度快,效率高,工作的内容更有重点,还消除减弱了神经元节点间的联合适应性,增强了泛化能力。

相关文章

网友评论

      本文标题:深度学习dropout作用与原理

      本文链接:https://www.haomeiwen.com/subject/uzumqqtx.html