LRN

作者: 衣介书生 | 来源:发表于2019-05-16 23:53 被阅读0次

    LRN全称为Local Response Normalization,即局部响应归一化层,LRN函数类似Dropout,是一种防止过拟合的方法。这个函数很少使用,基本上被类似Dropout这样的方法取代,见最早的出处AlexNet论文对它的定义, 《ImageNet Classification with Deep ConvolutionalNeural Networks》

    b_{x,y}^{i} = \frac{a_{x,y}^{i}}{(k+\alpha\sum_{j=max(0, i-n/2)}^{min(N-1, i+n/2)}(a_{x,y}^{j})^2)^{\beta}}

    b_{x,y}^{i}是归一化后的值,i是通道的位置,代表更新第几个通道的值,x与y代表待更新像素的位置。

    a_{x,y}^{i}是输入值,是激活函数Relu的输出值。

    k, \alpha, \beta, n/2都是自定义系数。

    N是总的通道数。

    累加多少个通道的像素值取决于自定义系数 n/2 。

    比如要计算红框位置的b_{x,y}^{i},累加效果如图所示:

    参考

    LRN ( Local Response Normalization) 局部响应归一化层

    相关文章

      网友评论

          本文标题:LRN

          本文链接:https://www.haomeiwen.com/subject/typlaqtx.html