LRN全称为Local Response Normalization,即局部响应归一化层,LRN函数类似Dropout,是一种防止过拟合的方法。这个函数很少使用,基本上被类似Dropout这样的方法取代,见最早的出处AlexNet论文对它的定义, 《ImageNet Classification with Deep ConvolutionalNeural Networks》。
是归一化后的值,i是通道的位置,代表更新第几个通道的值,x与y代表待更新像素的位置。
是输入值,是激活函数Relu的输出值。
都是自定义系数。
N是总的通道数。
累加多少个通道的像素值取决于自定义系数 n/2 。
比如要计算红框位置的,累加效果如图所示:
网友评论