美文网首页
RNN LSTM BI-LSTM

RNN LSTM BI-LSTM

作者: yi_cloud | 来源:发表于2019-01-18 18:19 被阅读0次

    RNN 循环神经网络

    RNN主要处理有时序关系的变长序列问题。每个神经元在每一时刻都一个特殊的hidden状态h(t),由当前节点的输入I(t)和上一时刻t-1隐藏状态h(t-1)加权求和后经过一个非线性激活函数得到,具体表示成公式如下:

    每个神经元t时刻隐状态

    参数Whh决定了当前神经元以多少比例接受之前所有时刻[0,t-1]的输入信息

    阻碍RNN发展的两个严重问题是:梯度爆炸 和 梯度消失、

    RNN的对隐状态h(0)进行反向传播:

    利用RNN时序上的依赖关系对上式\frac{\delta l}{\delta h_{t} } 进行展开,得到(注意,下式成立的前提是激活函数简化为线性函数):

    \frac{\delta h_{t}}{ \delta h_{0}} = \prod_{i=1}^t \frac{\delta h_{i}}{ \delta h_{i-1}} = \prod_{i=1}^t W_{hh} = W_{hh}^t

    继续对W_{hh}^t 进行矩阵奇异值分解(SVD):

    W_{hh} = U\Sigma ^t V^\top = \sum_{i=1}^r \sigma _{i}^t u_i v_i^\top

    因此最后要计算的目标为:

    \frac{\delta l}{\delta h_0} =  (\frac{\delta l}{\delta h_0})^\top \frac{\delta l}{\delta h_t} = (\sum_{i=1}^r \sigma _{i}^t u_i v_i^\top)^\top \frac{\delta l}{\delta h_t}  = \sum_{i=1}^r \sigma _{i}^t v_i u_i^\top \frac{\delta l}{\delta h_t}

    如果时间序列较长,W_{hh}的奇异值如果>1,t个\sigma _i连乘后会非常大,反之则会非常小

    基于RNN的这个缺点,引入了LSTM

    LSTM (Long-Short-Term-Memory)

    LSTM相比RNN其实就是多了一个门(gate)机制和细胞记忆单元(cell-state)用来存储,用来记录信息。

    复杂版的LSTM神经元机制

    LSTM的化简过程

    第一次化简

    LSTM中有三个门控单元,i_t,f_t,o_t,因为三者的计算方法都相同,区别只是使用了不同的权重矩阵以便反向传播时对三个门独立更新,因此可以不再特别考虑它们。

    输入门、遗忘门、输出门

    第二次化简

    LSTM对各维度特征的门控单元也是独立更新的,为了简化表示,可以只考虑一维的情况。从一维推广到多维是很直观的。化简到一维后,c_t,h_t最初的公式中向量内积\odot 可以转化成数和向量的乘积\cdot

    化简后的cell_state

    第三次化简

    三个门控单元经过sigmoid变化归一化到了[0,1]区间,因此可以看成是二值输出[0,1],也就是说门控单元可以看成是控制信息流通的开关。

    sigmoid函数

    用一张图表示

    LSTM中的cell_statec_t其实就相当于RNN中的隐藏神经元h_t。为了方便用图表示,调整一下第二次化简中公式的顺序:

    化简后的LSTM遗忘机制

    由上图可以看出,当i_t=0,h_t=1,o_t=0时,LSTM退化为RNN

    各个控制单元的作用

    输出门o_{t-1}用于保存c_{t-1}中对h_{t-1}有用的信息

    输入门i_t用于判断当前输入x_t是否对context有作用,当i_t=1时,使用x_t作为输入

    遗忘门f_t用于判断当前cell_statec_t对上一个cell_satec_{t-1}的依赖程度,当前输入x_t如果依赖上文信息,关闭遗忘门即可。

    细胞状态c_t它包含了当前输入x_t和上一时刻细胞状态c_{t-1}的信息,并且由于c_tc_{t-1}之间是“短路连接”(由公式可以看出两者之间是线性关系),因此反向传播时,c_t的梯度可以直接传播给c_{t-1},这也是LSTM能够有效缓解RNN中梯度消失和梯度爆炸的关键。

    相关文章

      网友评论

          本文标题:RNN LSTM BI-LSTM

          本文链接:https://www.haomeiwen.com/subject/auwjdqtx.html