美文网首页深度学习
Normalization综述

Normalization综述

作者: 只为此心无垠 | 来源:发表于2018-11-08 16:31 被阅读1次

    一、目录

    • 1、什么是Internal Covariate Shift

    • 2、Normalization的种类

    • 3、BatchNorm

    • 4、Layer Normalization

    二、什么是Internal Covariate Shift

    covariate shift现象的解释

    三、 Normalization的种类

    BN、WN、LN分别是Batch Normalization、Weight Normalization和Layer Normalization,中文翻译为批标准化,权重标准化,层标准化。

    四、BatchNorm

    从四个角度来理解:

    五、Layer Normalization

    batch是“竖”着来的,各个维度做归一化,所以与batch size有关系。
    layer是“横”着来的,对一个样本,不同的神经元neuron间做归一化。

    显示了同一层的神经元的情况。假设这个mini-batch一共有N个样本,则Batch Normalization是对每一个维度进行归一。而Layer Normalization对于单个的样本就可以处理。

    image

    BN和LN都可以比较好的抑制梯度消失和梯度爆炸的情况。BN不适合 RNN,而LN刚好适合

    层规范化技术 Layer Normalization

    相关文章

      网友评论

        本文标题:Normalization综述

        本文链接:https://www.haomeiwen.com/subject/napwxqtx.html