美文网首页神经网络
神经网络中最常用的激活函数

神经网络中最常用的激活函数

作者: 第七空城 | 来源:发表于2018-12-28 15:23 被阅读48次

    Sigmoid函数

    Sigmoid函数的表达式为

    函数曲线如下图所示:


    Sigmoid函数是传统神经网络中最常用的激活函数,一度被视为神经网络的核心所在。
      从数学上来看,Sigmoid函数对中央区的信号增益较大,对两侧区的信号增益小,在信号的特征空间映射上,有很好的效果。
      从神经科学上来看,中央区酷似神经元的兴奋态,两侧区酷似神经元的抑制态,因而在神经网络学习方面,可以将重点特征推向中央区,将非重点特征推向两侧区。

    TanHyperbolic(tanh)函数

    TanHyperbolic(tanh)函数又称作双曲正切函数,数学表达式为


    其函数曲线与Sigmoid函数相似,tanh函数与Sigmoid函数的函数曲线如下所示:

    在具体应用中,tanh函数相比于Sigmoid函数往往更具有优越性,这主要是因为Sigmoid函数在输入处于[-1,1]之间时,函数值变化敏感,一旦接近或者超出区间就失去敏感性,处于饱和状态,影响神经网络预测的精度值。而tanh的输出和输入能够保持非线性单调上升和下降关系,符合BP网络的梯度求解,容错性好,有界,渐进于0、1,符合人脑神经饱和的规律,但比sigmoid函数延迟了饱和期。

    ReLu函数和softplus函数

    ReLu函数的全称为Rectified Linear Units,函数表达式为


    softplus函数的数学表达式为


    它们的函数表达式如下:


    可以看到,softplus可以看作是ReLu的平滑。根据神经科学家的相关研究,softplus和ReLu与脑神经元激活频率函数有神似的地方。也就是说,相比于早期的激活函数,softplus和ReLu更加接近脑神经元的激活模型,而神经网络正是基于脑神经科学发展而来,这两个激活函数的应用促成了神经网络研究的新浪潮。

    那么softplus和ReLu相比于Sigmoid的优点在哪里呢?引用https://www.zhihu.com/question/29021768的解释就是:

    第一,采用sigmoid等函数,算激活函数时(指数运算),计算量大,反向传播求误差梯度时,求导涉及除法,计算量相对大,而采用Relu激活函数,整个过程的计算量节省很多。
    第二,对于深层网络,sigmoid函数反向传播时,很容易就会出现梯度消失的情况(在sigmoid接近饱和区时,变换太缓慢,导数趋于0,这种情况会造成信息丢失),从而无法完成深层网络的训练。
    第三,Relu会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生(以及一些人的生物解释balabala)。

    softmax函数

    我们可以看到,Sigmoid函数实际上就是把数据映射到一个(0,1) (0,1)(0,1)的空间上,也就是说,Sigmoid函数如果用来分类的话,只能进行二分类,而这里的softmax函数可以看做是Sigmoid函数的一般化,可以进行多分类。softmax函数的函数表达式为:


    从公式中可以看出,就是如果某一个zj大过其他z,那这个映射的分量就逼近于1,其他就逼近于0,即用于多分类。也可以理解为将K维向量映射为另外一种K维向量。用通信的术语来讲,如果Sigmoid函数是MISO,Softmax就是MIMO的Sigmoid函数。

    相关文章

      网友评论

        本文标题:神经网络中最常用的激活函数

        本文链接:https://www.haomeiwen.com/subject/zobslqtx.html