美文网首页斯坦福TensorFlow教程
神经网络中的激活函数-tanh

神经网络中的激活函数-tanh

作者: 致Great | 来源:发表于2018-06-13 17:35 被阅读1719次

为什么要引入激活函数

如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出都是上层输入的线性函数,很容易验证,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Perceptron)了。

正因为上面的原因,我们决定引入非线性函数作为激励函数,这样深层神经网络就有意义了(不再是输入的线性组合,可以逼近任意函数)。最早的想法是sigmoid函数或者tanh函数,输出有界,很容易充当下一层输入(以及一些人的生物解释balabala)。激活函数的作用是为了增加神经网络模型的非线性。否则你想想,没有激活函数的每层都相当于矩阵相乘。就算你叠加了若干层之后,无非还是个矩阵相乘罢了。所以你没有非线性结构的话,根本就算不上什么神经网络。

tanh的绘制

tanh是双曲函数中的一个,tanh()为双曲正切。在数学中,双曲正切“tanh”是由基本双曲函数双曲正弦和双曲余弦推导而来。

公式


其实tanh(x)=2*sigmoid(2*x)-1

特点

  • 函数:y=tanh x;
  • 定义域:R
  • 值域:(-1,1)。
  • y=tanh x是一个奇函数,其函数图像为过原点并且穿越Ⅰ、Ⅲ象限的严格单调递增曲线,其图像被限制在两水平渐近线y=1和y=-1之间。

图像

python绘制tanh函数

import math
import matplotlib.pyplot as plt
import numpy as np
import matplotlib as mpl


def tanh(x):
    return (np.exp(x) - np.exp(-x)) / (np.exp(x) + np.exp(-x))

fig = plt.figure(figsize=(6, 4))
ax = fig.add_subplot(111)

x = np.linspace(-10, 10)
y = tanh(x)


ax.spines['top'].set_color('none')
ax.spines['right'].set_color('none')

ax.xaxis.set_ticks_position('bottom')
ax.spines['bottom'].set_position(('data', 0))
ax.set_xticks([-10, -5, 0, 5, 10])
ax.yaxis.set_ticks_position('left')
ax.spines['left'].set_position(('data', 0))
ax.set_yticks([-1, -0.5, 0.5, 1])

plt.plot(x, y, label="Sigmoid", color="red")
plt.legend()
plt.show()

结果:


相关资料

相关文章

  • Chapter4 2018-03-20

    深层神经网络 激活函数 - 非线性 ReLU,sigmoid, tanh..... 损失函数 分类问题- 交叉熵...

  • 深度学习基础

    深度学习 一、神经网络基础 1.感知机 2.神经网络 激活函数 ①sigmoid 函数 ②tanh函数(双曲正切函...

  • AI常用激活函数分析5,Tanh函数

    在分类任务中,双曲正切函数(Tanh)逐渐取代 Sigmoid 函数作为标准的激活函数,其具有很多神经网络所钟爱的...

  • 神经网络中的激活函数-tanh

    为什么要引入激活函数 如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出都是上层输...

  • 关键概念

    1.激活函数 主要的激活函数(Activation Functions)包括: sigmoid tanh ReLU...

  • Tanh

    Tanh 激活函数又叫作双曲正切激活函数(hyperbolic tangent activation functi...

  • 03 多层感知机

    激活函数 ReLU ReLU(x)=max(x,0) Sigmoid函数 tanh函数 激活函数的选择 多层感知机...

  • 2019-10-22 浅层神经网络

    对于单个样本神经网络的预测: 将不同的训练样本组合输入神经网络: 激活函数: tanh函数几乎在绝大部分场合比si...

  • 3. 深度学习- 常用的激活函数

    在学习神经网络中,我们会常常碰到激活函数这个名词。那么什么是激活函数?激活函数激活的是什么?在神经网络中,有什么用...

  • 3. pytorch-激活函数

    常见激活函数 relu sigmod tanh softplus 示例代码

网友评论

    本文标题:神经网络中的激活函数-tanh

    本文链接:https://www.haomeiwen.com/subject/krfseftx.html