一、目录
-
1、什么是Internal Covariate Shift
-
2、Normalization的种类
-
3、BatchNorm
-
4、Layer Normalization
二、什么是Internal Covariate Shift
三、 Normalization的种类
BN、WN、LN分别是Batch Normalization、Weight Normalization和Layer Normalization,中文翻译为批标准化,权重标准化,层标准化。
四、BatchNorm
从四个角度来理解:
- BatchNorm的本质思想
- 训练阶段如何做BatchNorm
- 测试阶段如何做BatchNorm
- BatchNorm的好处
Batch Normalization
深入理解Batch Normalization批标准化
五、Layer Normalization
batch是“竖”着来的,各个维度做归一化,所以与batch size有关系。
layer是“横”着来的,对一个样本,不同的神经元neuron间做归一化。
显示了同一层的神经元的情况。假设这个mini-batch一共有N个样本,则Batch Normalization是对每一个维度进行归一。而Layer Normalization对于单个的样本就可以处理。
imageBN和LN都可以比较好的抑制梯度消失和梯度爆炸的情况。BN不适合 RNN,而LN刚好适合
网友评论