美文网首页
激活函数

激活函数

作者: Chuck_Wu | 来源:发表于2018-11-13 21:35 被阅读2次

神经网络中的常用激活函数及其导数

1、sigmoid:该函数将取值(-∞,+∞)的数映射到(0,+1)之间。


image.png

函数:g(z) = 1-1/(1+e-z)
导数:g'(z) = 1/(1+e-z) * (1-1/(1+e-z) )

缺点:当z值太大或太小时,该函数的导数接近于0,将会导致梯度消失。因此该函数不适用在隐藏层,而是用在输出层进行二分类。

2、tanh:该函数将取值(-∞,+∞)的数映射到(-1,+1)之间。


image.png

函数:g(z) = (ez-e-z) / (ez+e-z)
导数:g'(z) ' = 4 / (ez+e-z)2 = 1- tanh2

tanh弥补了sigmoid均值为0.5的缺点,在该函数的某一段课看做线性。
缺点同样为当z值太大或太小时,会导致梯度消失。

3、ReLU(rectified linear unit):分段线性函数


image.png

函数:g(z) = { z, if z>0
0, if z<0

导数:g'(z) = { 1, if z>0
0, if z<0

优点:输入为正时不存在梯度消失问题,速度快
缺点:输入为负时存在梯度消失问题。

4、leaky ReLU


image.png

函数:g(z)={ z, if z>0
az, if z<0 (0<a<1)
导数:g'(z)={ 1, if z>0
a, if z<0

优点:解决了ReLU函数在输入为负情况下梯度消失问题。

相关文章

  • 激活函数softmax-P2分类任务

    激活函数种类激活函数作用 激活函数 深度学习常用激活函数之— Sigmoid & ReLU & Softmax 深...

  • 6.神经网络训练细节part1

    一、激活函数 前边我们学到,一个节点的输出会进入激活函数进行处理 常见的激活函数有以下 sigmoid激活函数 s...

  • tanh函数&logistic函数

    传统Sigmoid系激活函数 传统Sigmoid系激活函数 传统Sigmoid系激活函数,Sigmoid系(Log...

  • 机器学习之神经网络

    什么是神经网络 就是使用了平滑的激活函数的多层感知机 激活函数 什么是激活函数呢? 激活函数就是从输入值到对应输出...

  • [Machine Learning From Scratch]-

    激活层激活函数定义 封装激活层

  • 2019-10-09

    深度学习第三天 激活函数: 激活函数是...

  • 理解激活函数

    一、何为激活函数? 深度学习中,激活函数通常指能够实现非线性映射的函数 二、为什么需要非线性激活函数? 定义:这里...

  • 03 多层感知机

    激活函数 ReLU ReLU(x)=max(x,0) Sigmoid函数 tanh函数 激活函数的选择 多层感知机...

  • 非线性激活函数的作用

    一直有个疑问 为什么需要非线性激活函数?如果没有激活函数g(z),即g(z)=z,就叫线性激活函数,或者叫恒等激活...

  • Machine Learning基础:激活函数(Activiat

    Machine Learning基础:激活函数(Activiation Function)   激活函数通常有如下...

网友评论

      本文标题:激活函数

      本文链接:https://www.haomeiwen.com/subject/pqjfnftx.html