美文网首页
转载LSTM原理及实现

转载LSTM原理及实现

作者: 橙子潘潘 | 来源:发表于2018-11-03 11:41 被阅读0次

    本文转载自:作者:gzj_1101
    来源:CSDN
    原文:https://blog.csdn.net/gzj_1101/article/details/79376798

    内容目录

    前面我们介绍了RNN,现在我们来介绍一种特殊的RNN结构,LSTM网络。我们将逐步介绍LSTM的结构,原理,以及利用LSTM识别手写数字的demo跟深刻的理解LSTM。

    LSTM网络

    long short term memory,即我们所称呼的LSTM,是为了解决长期以来问题而专门设计出来的,所有的RNN都具有一种重复神经网络模块的链式形式。在标准RNN中,这个重复的结构模块只有一个非常简单的结构,例如一个tanh层。


    LSTM,一个tanh层

    LSTM 同样是这样的结构,但是重复的模块拥有一个不同的结构。不同于单一神经网络层,这里是有四个,以一种非常特殊的方式进行交互。


    LSTM
    不必担心这里的细节。我们会一步一步地剖析 LSTM 解析图。现在,我们先来熟悉一下图中使用的各种元素的图标。
    元素图标

    在上面的图例中,每一条黑线传输着一整个向量,从一个节点的输出到其他节点的输入。粉色的圈代表 pointwise 的操作,诸如向量的和,而黄色的矩阵就是学习到的神经网络层。合在一起的线表示向量的连接,分开的线表示内容被复制,然后分发到不同的位置。

    LSTM核心思想

    LSTM的关键在于细胞的状态整个(如下图),和穿过细胞的那条水平线。

    细胞状态类似于传送带。直接在整个链上运行,只有一些少量的线性交互。信息在上面流传保持不变会很容易。

    绿色表示一个cell
    可以实现选择性地让信息通过,主要是通过一个 sigmoid 的神经层 和一个逐点相乘的操作来实现的。
    控制门
    sigmoid 层输出(是一个向量)的每个元素都是一个在 0 和 1 之间的实数,表示让对应信息通过的权重(或者占比)。比如, 0 表示“不让任何信息通过”, 1 表示“让所有信息通过”。

    LSTM通过三个这样的本结构来实现信息的保护和控制。这三个门分别输入门、遗忘门和输出门。

    逐步理解LSTM

    现在我们就开始通过三个门逐步的了解LSTM的原理

    遗忘门

    在我们 LSTM 中的第一步是决定我们会从细胞状态中丢弃什么信息。这个决定通过一个称为忘记门层完成。该门会读取h_{t−1}x_t,输出一个在 0到 1之间的数值给每个在细胞状态C_{t−1}中的数字。1 表示“完全保留”,0 表示“完全舍弃”。

    让我们回到语言模型的例子中来基于已经看到的预测下一个词。在这个问题中,细胞状态可能包含当前主语的性别,因此正确的代词可以被选择出来。当我们看到新的主语,我们希望忘记旧的主语。

    Forget Gate,遗忘门
    其中 Input Gate,输入门
    现在是更新旧细胞状态的时间了, 细胞状态更新

    输出门

    最终,我们需要确定输出什么值。这个输出将会基于我们的细胞状态,但是也是一个过滤后的版本。首先,我们运行一个 sigmoid 层来确定细胞状态的哪个部分将输出出去。接着,我们把细胞状态通过 tanh 进行处理(得到一个在 -1 到 1 之间的值)并将它和 sigmoid 门的输出相乘,最终我们仅仅会输出我们确定输出的那部分。

    在语言模型的例子中,因为他就看到了一个代词,可能需要输出与一个动词相关的信息。例如,可能输出是否代词是单数还是负数,这样如果是动词的话,我们也知道动词需要进行的词形变化。


    输出门

    LSTM实现手写数字

    这里我们利用的数据集是tensorflow提供的一个手写数字数据集。该数据集是一个包含n张28*28的数据集。
    源代码:
    https://github.com/geroge-gao/deeplearning/tree/master/LSTM

    参考资料

    [1].https://www.jianshu.com/p/9dc9f41f0b29
    [2].http://blog.csdn.net/Jerr__y/article/details/58598296
    [3].Stacked Long Short-Term Memory Networks

    相关文章

      网友评论

          本文标题:转载LSTM原理及实现

          本文链接:https://www.haomeiwen.com/subject/wlhkxqtx.html