美文网首页
循环神经网络

循环神经网络

作者: shtahal | 来源:发表于2020-02-18 21:38 被阅读0次

    RNN

    1. 基本结构

    NLP 问题中,通常句子都是由 n 个词组成,可看做一串序列,RNN 正是可以处理序列类型数据的深度学习模型。如下图所示,RNN 由多个相同的神经网络单元,即图中的方块,连接而成,输入可看做一句话的每个单词,上一个单元的计算结果传递给下一个单元。经过串行计算后,每一个单元总是包含有之前所有单元的一些信息。

    nvsn.png

    t 时刻网络单元的计算包括两个元素,t-1 时刻的输出 h_{t-1}t 时刻的输入 x_{t} 。计算后的结果 h_{t} 则传递给下一个单元,作为 t+1 时刻的一个输入。假设输入序列为 x_{1},x_{2},x_{3},...,x_{n} ,对应的中间状态为 h_{1},h_{2},h_{3},...,h_{n} ,输出为 y_{1},y_{2},y_{3},...,y_{n}

    计算过程为:

    \begin{aligned} h_{t} = f(Ux_{t} + Wh_{t-1} + b) \\ y_{t} = Softmax(Vh_{t} + c) \end{aligned}

    其中,U,W,V,b,c 为需要更新的参数,激活函数 f 一般为 tanh 函数。

    2. 其他结构

    Many to One

    当处理文本分类时,输入是一个文本序列,而输出可能只是一个类别,那么只需要对最后一个中间状态做计算并输出结果就可以了。如下图所示:

    nvs1.png

    计算过程:

    \begin{aligned} h_{t} = f(Ux_{t} + Wh_{t-1} + b) \\ y = Softmax(Vh_{4} + c) \end{aligned}

    One to Many

    当处理 Image Caption 任务时,输入可能是一个向量,输出则是一个文本序列,如下图所示:

    1vsn.png 1vsn2.png

    计算过程:
    \begin{aligned} h_{t} = f(Ux + Wh_{t-1} + b) \\ y_{t} = Softmax(Vh_{t} + c) \end{aligned}

    Many to Many

    当处理机器翻译时,输入一串文本序列,输出一串文本序列。如下图所示:

    nvsn.png

    该模型称为 Sequence to Sequence 模型,又称为 Encoder-Decoder 模型。

    3. 梯度消失(爆炸)

    假设有三个时间段的 RNN 模型,如下图所示:

    3time.png

    前向传播:

    \begin{array}{ll} {h_{1}=f\left(W h_{0}+U x_{1}\right)} & {y_{1}=g\left(V h_{1}\right)} \\ {h_{2}=f\left(W h_{1}+U x_{2}\right)} & {y_{2}=g\left(V h_{2}\right)} \\ {h_{3}=f\left(W h_{2}+U x_{3}\right)} & {y_{3}=g\left(V h_{3}\right)} \end{array}

    t_3 时刻的损失函数为 L_3,对共享参数 W、U、V 求导:

    \begin{array}{c} {\frac{\partial L_{3}}{\partial V}=\frac{\partial L_{3}}{\partial y_{3}} \frac{\partial L_{3}}{\partial V}} \\ {\frac{\partial L_{3}}{\partial U}=\frac{\partial L_{3}}{\partial y_{3}} \frac{\partial L_{3}}{\partial h_{3}} \frac{\partial h_{3}}{\partial U}+\frac{\partial L_{3}}{\partial y_{3}} \frac{\partial L_{3}}{\partial h_{3}} \frac{\partial h_{2}}{\partial U}+\frac{\partial L_{3}}{\partial y_{3}} \frac{\partial L_{3}}{\partial h_{3}} \frac{\partial h_{3}}{\partial h_{1}} \frac{\partial h_{1}}{\partial U}=\sum_{i=1}^{t} \frac{\partial L_{t}}{\partial y_{t}} \frac{\partial L_{t}}{\partial h_{t}}\left(\prod_{j=i+1}^{t} \frac{\partial h_{j}}{\partial h_{j-1}}\right) \frac{\partial h_{j}}{\partial U}} \\ {\frac{\partial L_{3}}{\partial W}=\frac{\partial L_{3}}{\partial y_{3}} \frac{\partial L_{3}}{\partial h_{3}} \frac{\partial h_{3}}{\partial W}+\frac{\partial L_{3}}{\partial y_{3}} \frac{\partial L_{3}}{\partial h_{3}} \frac{\partial h_{3}}{\partial h_{3}} \frac{\partial L_{3}}{\partial h_{3}} \frac{\partial h_{3}}{\partial h_{1}} \frac{\partial h_{1}}{\partial W}=\sum_{i=1}^{t} \frac{\partial L_{t}}{\partial y_{t}} \frac{\partial L_{t}}{\partial h_{t}}\left(\prod_{j=i+1}^{t} \frac{\partial h_{j}}{\partial h_{j-1}}\right) \frac{\partial h_{j}}{\partial W}} \end{array}

    可见,共享参数 W、U 的每次求导计算会涉及到整个序列。而 RNN 的神经单元只有一个 tanh 激活函数,如下图所示:

    LSTM3-SimpleRNN.png

    即:
    \begin{aligned}& h_{j}=\tanh \left(W h_{j-1}+U x_{x}\right)\\ &\sum_{j=i+1}^{t} \frac{\partial h_{j}}{\partial h_{j-1}}=\sum_{j=i+1}^{t} W \tanh ^{\prime} \end{aligned}

    反向传播求导过程会包含每一步求导的连乘,假如参数 W 也是一个比较小的数 0.02 ,当 t 很大时,上式就会趋于零,RNN 的梯度就会消失。反之,会梯度爆炸。

    LSTM

    1. 长期依赖问题

    若梯度消失,那么最前面的输入所蕴含的信息就无法传达到后面。比如要推测 I grew up in France… I speak fluent French. 的最后一个词 French 。那么肯定就要知道很靠前的 France 这个词的信息,但是它们相互相隔非常远,有可能获取不到,如下图所示:

    RNN-longtermdependencies.png

    2. 基本结构

    和 RNN 的神经网络单元不同的是,LSTM 每个单元输的出包括两部分:C_th_t ,同时引入了遗忘门、输入门和输出门。

    LSTM3-chain.png

    单元状态 C_{t−1} 通过累加的方式记录了 t 时刻需要保存的信息,作用在整个神经单元,因此可以长距离传输信息,如下图所示:

    LSTM3-C-line.png

    遗忘门

    遗忘门用来丢弃上一时刻 C_{t−1} 的部分信息,上一时刻的隐状态 h_{t−1} 和当前时刻的输入 x_t 通过一个 sigmoid 层,输出 f_t 介于 0 到 1 之间,1 代表信息全部保留,0 代表全部丢弃。

    LSTM3-focus-f.png

    输入门

    • 为了更新单元状态 C_t ,将 h_{t−1}x_t 传递给 sigmoid 函数,输出 i_t 同样介于 01 之间,决定将更新临时单元状态中的哪些值。
    • 为了协调神经单元,将 h_{t−1}x_t 传递给 tanh 函数,输出的临时单元状态 C_t 介于 -11 之间。
    • i_tC_t 逐点相乘。
      LSTM3-focus-i.png

    单元状态

    • C_{t−1}f_t 逐点相乘,和接近 0 的值相乘,表示该词的作用不太大,会逐渐被遗忘;反之,该词的权重会变大,表示比较重要。
    • 将结果和输入门的输出逐点相加,将单词的向量加加减减,更新为新的值,构成当前时刻神经单元的所有信息 C_t
    LSTM3-focus-C.png

    输出门

    • h_{t−1}x_t 传递给 sigmoid 函数,输出 o_t 同样介于 01 之间,决定 C_t 的哪些部分需要输出。
    • C_t 传递给 tanh 函数,与 o_t 逐点相乘得到输出,该输出作为当前隐状态 h_t 参与下一个神经单元进行计算。
    LSTM3-focus-o.png

    References

    Understanding LSTM Networks

    The Unreasonable Effectiveness of Recurrent Neural Networks

    相关文章

      网友评论

          本文标题:循环神经网络

          本文链接:https://www.haomeiwen.com/subject/edmnfhtx.html