美文网首页
人工智能00041 深度学习与图像识别书摘41 卷积神经网络 

人工智能00041 深度学习与图像识别书摘41 卷积神经网络 

作者: 良友知音 | 来源:发表于2024-03-05 08:21 被阅读0次

    批规范化层(BatchNorm层)是2015年Ioffe和Szegedy等人提出的想法,主要是为了加速神经网络的收敛过程以及提高训练过程中的稳定性。

    虽然深度学习被证明有效,但它的训练过程始终需要经过精心调试,比如精心设置初始化参数、使用较小的学习率等。

    Ioffe和Szegedy等人进行了详细的分析,并给出了BatchNorm方法,在很多实验中该方法均被证明非常有效。

    首先介绍一下batch的概念:在使用卷积神经网络处理图像数据时,往往是几张图片(如32张、64张、128张等)被同时输入到网络中一起进行前向计算,误差也是将该batch中所有图片的误差累计起来一起回传。

    BatchNorm方法其实就是对一个batch中的数据做了归一化。

    BatchNorm不是为了防止梯度消失或者防止过拟合,其核心是通过对系统参数搜索空间进行约束来增加系统鲁棒性,这种约束压缩了搜索空间,约束也改善了系统的结构合理性,这会带来一系列的性能改善,比如加速收敛,保证梯度,缓解过拟合等。

    批量规范化(Batch Normalization)方法,能大幅加速模型训练,同时保持预测准确率不降,因而被一些优秀模型采纳为标准模型层。

    相关文章

      网友评论

          本文标题:人工智能00041 深度学习与图像识别书摘41 卷积神经网络 

          本文链接:https://www.haomeiwen.com/subject/epnrzdtx.html