美文网首页
激活函数比较

激活函数比较

作者: 遥远的清平湾 | 来源:发表于2019-05-12 16:43 被阅读0次

下面内容转自深度学习:激活函数的比较和优缺点,sigmoid,tanh,relu,正确性有待进一步研究,这里谨做记录。
后面为自己的思考。

sigmoid

sigmoid缺点:

  • 激活函数计算量大,反向传播求误差梯度时,求导涉及除法
  • 反向传播时,很容易就会出现梯度消失的情况,从而无法完成深层网络的训练
  • Sigmoids函数饱和且kill掉梯度。
  • Sigmoids函数收敛缓慢。

ReLU

RELU特点:
输入信号 <0 时,输出都是0,>0 的情况下,输出等于输入

ReLU 的优点:

  • Krizhevsky et al. 发现使用 ReLU 得到的 SGD 的收敛速度会比 sigmoid/tanh 快很多

ReLU 的缺点:

  • 训练的时候很”脆弱”,很容易就”die”了
    例如,一个非常大的梯度流过一个 ReLU 神经元,更新过参数之后,这个神经元再也不会对任何数据有激活现象了,那么这个神经元的梯度就永远都会是 0。【1】
    如果 learning rate 很大,那么很有可能网络中的 40% 的神经元都”dead”了。

思考

上面说的ReLU的缺点【1】的解释:

  • 非常大的梯度流过一个 ReLU 神经元后 ===》
  • 权重恰好调整为一个非常大的负值(记为w1) ===》
  • 由于该神经元的输入为正值(记为x1),所以w1*x1=u1,u1为一个很大负值 ===》
  • u1落在了ReLU的左半部分,所以该神经元最终输出 y1 = ReLU(u1)= 0 ===》
  • 以后该神经元的输出一直为0 ===》
  • 因为该神经元输出不变,所以权值不再调整 ===》
  • 因此说该神经元dead了。

不知是否正确,欢迎讨论。

另外可以参考sigmoid tanh Relu比较

相关文章

  • 激活函数比较

    Sigmoid 和 ReLU 比较: sigmoid 的梯度消失问题,ReLU 的导数就不存在这样的问题,它的导数...

  • 激活函数比较

    下面内容转自深度学习:激活函数的比较和优缺点,sigmoid,tanh,relu[https://blog.csd...

  • 常用激活函数比较

    本文转自https://www.jianshu.com/p/22d9720dbf1a,有些没看懂,先记下来,以及增...

  • 常用激活函数比较

    本文结构: 什么是激活函数 为什么要用 都有什么 sigmoid ,ReLU, softmax 的比较 如何选择 ...

  • 激活函数softmax-P2分类任务

    激活函数种类激活函数作用 激活函数 深度学习常用激活函数之— Sigmoid & ReLU & Softmax 深...

  • 16 keras激活函数

    激活函数也是神经网络中一个很重的部分。每一层的网络输出都要经过激活函数。比较常用的有linear,sigmoid,...

  • 6.神经网络训练细节part1

    一、激活函数 前边我们学到,一个节点的输出会进入激活函数进行处理 常见的激活函数有以下 sigmoid激活函数 s...

  • tanh函数&logistic函数

    传统Sigmoid系激活函数 传统Sigmoid系激活函数 传统Sigmoid系激活函数,Sigmoid系(Log...

  • 机器学习之神经网络

    什么是神经网络 就是使用了平滑的激活函数的多层感知机 激活函数 什么是激活函数呢? 激活函数就是从输入值到对应输出...

  • [Machine Learning From Scratch]-

    激活层激活函数定义 封装激活层

网友评论

      本文标题:激活函数比较

      本文链接:https://www.haomeiwen.com/subject/olicaqtx.html