Dropout 作用:
避免过拟合。
Dropout与L1和L2正则化区别:
L1和L2正则化通过在损失函数上增加参数的惩罚项,通过对参数大小的约束,起到类似降维的作用(若高阶项参数接近0,相当于降阶)。
进而简化模型,提高模型泛化力,避免过拟合。
L1和L2正则化修改代价函数,Dropout修改神经网络本身。

如图所示,dropout直接让一些神经元随机停止工作。
举个不恰当的例子,大家感受一下
勤劳的神经元们事无巨细地干活,花大量时间把不重要的特征都学到了(过拟合),按这种方式去做其他事效率就很低(模型泛化能力差)
现在随机挑选几个神经元组成小团队高效地工作(精兵简政),不仅速度快,效率高,工作的内容更有重点,还消除减弱了神经元节点间的联合适应性,增强了泛化能力。
网友评论