美文网首页
Chapter 1.4 激活函数

Chapter 1.4 激活函数

作者: vincehxb | 来源:发表于2017-06-13 16:22 被阅读0次

    下面介绍常见的激活函数

    激活函数都在tf.nn中

    最常见的是relu函数,它将所有小于0的值置为0

    可以看到relu在的输出可以趋近正无穷,这样的情况有可能导致梯度消失或者是梯度爆炸,relu6函数是在relu基础上加上上界

    显然6是上界

    relu6

    其次是sigmoid函数,但是因为其不是zero-center,所以现在很少直接用这个函数做激活函数

    sigmoid

    因为sigmoid不是zero-center的,tanh函数和sigmoid类似,但是是zero-center的

    softsign:这个函数常用于作为激活函数,其可以看做是符号函数的平滑近似

    The softsign function also gets used as an activation function. The form of thisfunction is x/(abs(x) + 1). The softsign function is supposed to be a continuous approximation to the sign function. It appears as follows

    softplus:可以看做是relu的一种平滑近似

    the softplus, is a smooth version of the ReLU function. The form of this function is  log(exp(x) + 1)

    Exponential Linear Unit (ELU) is very similar to the softplus function except that the bottom asymptote is -1 instead of 0. The form is (exp(x)+1) if x < 0 else x. It appears as follows

    也就是说elu的下限为-1,是relu的平滑近似

    对比效果图:


    相关文章

      网友评论

          本文标题:Chapter 1.4 激活函数

          本文链接:https://www.haomeiwen.com/subject/qkgdqxtx.html