美文网首页
激活函数——PReLU激活

激活函数——PReLU激活

作者: 听风1996 | 来源:发表于2018-05-12 17:46 被阅读55次

[转载]:https://blog.csdn.net/shuzfan/article/details/51345832

本次介绍PReLU激活函数,方法来自于何凯明paper 《Delving Deep into Rectifiers:Surpassing Human-Level Performance on ImageNet Classification》.

PReLU激活

PReLU(Parametric Rectified Linear Unit), 顾名思义:带参数的ReLU。二者的定义和区别如下图:



如果ai=0,那么PReLU退化为ReLU;如果ai是一个很小的固定值(如ai=0.01),则PReLU退化为Leaky ReLU(LReLU)。 有实验证明,与ReLU相比,LReLU对最终的结果几乎没什么影响。

PReLU的几点说明

(1) PReLU只增加了极少量的参数,也就意味着网络的计算量以及过拟合的危险性都只增加了一点点。特别的,当不同channels使用相同的ai时,参数就更少了。

(2) BP更新ai时,采用的是带动量的更新方式,如下图:

带动量更新

上式的两个系数分别是动量和学习率。
需要特别注意的是:更新ai时不施加权重衰减(L2正则化),因为这会把ai很大程度上push到0。事实上,即使不加正则化,试验中ai也很少有超过1的。

(3) 整个论文,ai被初始化为0.25。

相关文章

  • 激活函数——PReLU激活

    [转载]:https://blog.csdn.net/shuzfan/article/details/513458...

  • PReLU激活函数

    本次介绍PReLU激活函数,方法来自于何凯明paper《Delving Deep into Rectifiers:...

  • 2019-09-28 MTCNN代码讲解3

    1、激活函数:prelu 加入了一个平滑层flatten 2、处理图像,生成图像金字塔 边框回归:

  • 激活函数softmax-P2分类任务

    激活函数种类激活函数作用 激活函数 深度学习常用激活函数之— Sigmoid & ReLU & Softmax 深...

  • [Machine Learning From Scratch]-

    激活层激活函数定义 封装激活层

  • 6.神经网络训练细节part1

    一、激活函数 前边我们学到,一个节点的输出会进入激活函数进行处理 常见的激活函数有以下 sigmoid激活函数 s...

  • tanh函数&logistic函数

    传统Sigmoid系激活函数 传统Sigmoid系激活函数 传统Sigmoid系激活函数,Sigmoid系(Log...

  • 机器学习之神经网络

    什么是神经网络 就是使用了平滑的激活函数的多层感知机 激活函数 什么是激活函数呢? 激活函数就是从输入值到对应输出...

  • 2019-10-09

    深度学习第三天 激活函数: 激活函数是...

  • 非线性激活函数的作用

    一直有个疑问 为什么需要非线性激活函数?如果没有激活函数g(z),即g(z)=z,就叫线性激活函数,或者叫恒等激活...

网友评论

      本文标题:激活函数——PReLU激活

      本文链接:https://www.haomeiwen.com/subject/mfshdftx.html