美文网首页
激活函数

激活函数

作者: stigin | 来源:发表于2019-06-02 22:19 被阅读0次

1、非线性激活函数

sigmoid、tanh

问题:1、计算量大;2、容易有梯度消失问题

梯度消失问题:在反向传播中,当梯度小于1时(如sigmoid和tanh),往回传的层数愈多,梯度越小,将导致模型难以训练。

假设一个三层网络 f,g,h:y=f(g(h(x))), \frac{\Delta y}{\Delta x}= \frac{\Delta f}{\Delta g}\frac{\Delta g}{\Delta h} \frac{\Delta h}{\Delta x}, 可以看到如果梯度都是小于1,每一层的回传梯度都会发生衰减。

2、修正线性单元,rectifier linear unit,ReLu

f(x)=max(0,x)

优点:1、计算量小,同时能实现非线性映射;2、不存在梯度消失问题;3、忽略小于0的输入,使得网络具有稀疏性,即对于一个输入,网络中只有部分结构会被激活;

缺点:神经元死亡问题,即当一个很大的梯度经过某个神经元,经过更新后,这个神经元可能对所有的输入输出都是负值,那么这个神经元就死亡了。这个问题当学习率设的过大时,更容易发生。

3、learky ReLu

f(x)=max(\alpha x,x),\alpha 为大于0的一个小数,一般为0.01。

解决了relu的神经元死亡问题

相关文章

  • 激活函数softmax-P2分类任务

    激活函数种类激活函数作用 激活函数 深度学习常用激活函数之— Sigmoid & ReLU & Softmax 深...

  • 6.神经网络训练细节part1

    一、激活函数 前边我们学到,一个节点的输出会进入激活函数进行处理 常见的激活函数有以下 sigmoid激活函数 s...

  • tanh函数&logistic函数

    传统Sigmoid系激活函数 传统Sigmoid系激活函数 传统Sigmoid系激活函数,Sigmoid系(Log...

  • 机器学习之神经网络

    什么是神经网络 就是使用了平滑的激活函数的多层感知机 激活函数 什么是激活函数呢? 激活函数就是从输入值到对应输出...

  • [Machine Learning From Scratch]-

    激活层激活函数定义 封装激活层

  • 2019-10-09

    深度学习第三天 激活函数: 激活函数是...

  • 理解激活函数

    一、何为激活函数? 深度学习中,激活函数通常指能够实现非线性映射的函数 二、为什么需要非线性激活函数? 定义:这里...

  • 03 多层感知机

    激活函数 ReLU ReLU(x)=max(x,0) Sigmoid函数 tanh函数 激活函数的选择 多层感知机...

  • 非线性激活函数的作用

    一直有个疑问 为什么需要非线性激活函数?如果没有激活函数g(z),即g(z)=z,就叫线性激活函数,或者叫恒等激活...

  • Machine Learning基础:激活函数(Activiat

    Machine Learning基础:激活函数(Activiation Function)   激活函数通常有如下...

网友评论

      本文标题:激活函数

      本文链接:https://www.haomeiwen.com/subject/skefxctx.html