美文网首页机器学习
激活函数专题

激活函数专题

作者: 西北小生_ | 来源:发表于2019-08-13 14:30 被阅读0次

激活函数用于神经网络的线性加权操作或池化操作之后,通过加入非线性因素来提高神经网络的表达能力。本专题用于整理和总结常用的激活函数,包括:Sigmoid,Tanh,Softplus,ReLU,ReLU6,Leaky ReLU,ELU,Maxout,Softmax等。

激活函数通常有以下几个性质:

1.非线性:保证数据非线性可分;
2.可微性:保证可以计算梯度进行反向传播;
3.单调性:保证凸函数;
4.输出值与输入值相差不会很大:保证神经网络训练和调参高效。

常见的几种激活函数:

(1) Sigmoid

函数表达式:
sigmoid(x)=\frac{1}{1+e^{-x}}
函数图像:

Sigmoid
(2) Tanh

函数表达式:
tanh(z)=\frac{e^z-e^{-z}}{e^z+e^{-z}}
函数图像:

Tanh
(3) Softplus

函数表达式:
Softplus(x)=log(1+e^x)
函数图像:

Softplus
(4) ReLU

函数表达式:
ReLU(x)= \begin{cases} x, &x\ \gt\ 0\\[2ex] 0, &x\ \le\ 0 \end{cases}
函数图像:

ReLU
(5) ReLU6

函数表达式:
ReLU6(x)=min(max(x,0),6)
即:
ReLU6(x)= \begin{cases} 6, &x\ \ge 6\\[2ex] x, &0\lt x\ \lt\ 6\\[2ex] 0, &x\ \le\ 0 \end{cases}
函数图像:

ReLU6
(6) Leaky ReLU

函数表达式:
Leaky\ ReLU(x)= \begin{cases} x, &x\ \gt\ 0\\[2ex] \alpha x, &x\ \le\ 0 \end{cases}
函数图像:

Leaky ReLU
(7) ELU

函数表达式:
Leaky\ ReLU(x)= \begin{cases} x, &x\ \gt\ 0\\[2ex] \alpha (e^x-1), &x\ \le\ 0 \end{cases}
函数图像:

ELU
(8) Maxout

函数表达式:

(9) Softmax

相关文章

  • 激活函数专题

    激活函数用于神经网络的线性加权操作或池化操作之后,通过加入非线性因素来提高神经网络的表达能力。本专题用于整理和总结...

  • 激活函数softmax-P2分类任务

    激活函数种类激活函数作用 激活函数 深度学习常用激活函数之— Sigmoid & ReLU & Softmax 深...

  • 6.神经网络训练细节part1

    一、激活函数 前边我们学到,一个节点的输出会进入激活函数进行处理 常见的激活函数有以下 sigmoid激活函数 s...

  • tanh函数&logistic函数

    传统Sigmoid系激活函数 传统Sigmoid系激活函数 传统Sigmoid系激活函数,Sigmoid系(Log...

  • 机器学习之神经网络

    什么是神经网络 就是使用了平滑的激活函数的多层感知机 激活函数 什么是激活函数呢? 激活函数就是从输入值到对应输出...

  • [Machine Learning From Scratch]-

    激活层激活函数定义 封装激活层

  • 2019-10-09

    深度学习第三天 激活函数: 激活函数是...

  • 理解激活函数

    一、何为激活函数? 深度学习中,激活函数通常指能够实现非线性映射的函数 二、为什么需要非线性激活函数? 定义:这里...

  • 03 多层感知机

    激活函数 ReLU ReLU(x)=max(x,0) Sigmoid函数 tanh函数 激活函数的选择 多层感知机...

  • 非线性激活函数的作用

    一直有个疑问 为什么需要非线性激活函数?如果没有激活函数g(z),即g(z)=z,就叫线性激活函数,或者叫恒等激活...

网友评论

    本文标题:激活函数专题

    本文链接:https://www.haomeiwen.com/subject/fyvpjctx.html