LSTM

作者: Biss | 来源:发表于2017-03-12 14:32 被阅读109次

Recurrent Neural Networks

  • networks with loops in them, allowing information to persist.
Paste_Image.png
  • unroll
Paste_Image.png

The Problem of Long-Term Dependencies

  • use past to predict now
Paste_Image.png
  • 这是普通的RNN结构


    Paste_Image.png
  • 这是LSTM结构

Paste_Image.png Paste_Image.png

The Core Idea Behind LSTMs

  • 重要的点 cell state(传输带),能够在上面增加或者去除cell
Paste_Image.png
  • 门有让信息通过的能力。由sigmoid和乘法运算组成。
Paste_Image.png

它决定有多少信息通过。0意味着不让任何信息通过,1意味着让所有信息通过。

Step-by-Step LSTM Walk Through

  • “forget gate layer.”
Paste_Image.png
  • decide what new information we’re going to store
Paste_Image.png
  • 我们决定那些要忘记,那些信息重要的要留下
Paste_Image.png
  • 最后我们决定要输出什么(时态or词性)
Paste_Image.png

LSTM变形

1.我们希望在忘记之前能够查看cell state的情况(peepholes)

Paste_Image.png

2.当我们忘记旧的东西,我们才加入新的值

Paste_Image.png

3.把forget gate 和 input gate 变成update gate。把cell state 和hidden state 结合在一起。

Paste_Image.png

相关文章

  • pytorch1.0 搭建LSTM网络

    torch.nn包下实现了LSTM函数,实现LSTM层。多个LSTMcell组合起来是LSTM。 LSTM自动实现...

  • keras lstm 杂记

    1、例子 情感分析 情感分析(苏剑林) lstm多曲线预测 lstm多曲线预测(原文) 2、lstm参数 lstm...

  • 详解 LSTM

    今天的内容有: LSTM 思路 LSTM 的前向计算 LSTM 的反向传播 关于调参 LSTM 长短时记忆网络(L...

  • LSTM Custom

    def InitLSTM(self,LSTM,Name,InputSize) LSTM.Forget_Wight...

  • keras lstm return sequence参数理解

    使用keras构建多层lstm网络时,除了最后一层lstm,中间过程的lstm中的return sequence参...

  • LSTM

    Chris Olah's LSTM postEdwin Chen's LSTM postAndrej Karpat...

  • lstm理解

    本文是自己对于lstm的理解的总结,但是最好的文章帮助理解lstm一定是这篇Understanding LSTM ...

  • Tensorflow神经网络之LSTM

    LSTM 简介 公式 LSTM LSTM作为门控循环神经网络因此我们从门控单元切入理解。主要包括: 输入门:It ...

  • LSTM原理、源码、Demo及习题

    全面整理LSTM相关原理,源码,以及开发demo,设计习题。如转载请注明转载出处。 LSTM 框架 lstm 由3...

  • 双向 LSTM

    本文结构: 为什么用双向 LSTM 什么是双向 LSTM 例子 为什么用双向 LSTM? 单向的 RNN,是根据前...

网友评论

      本文标题:LSTM

      本文链接:https://www.haomeiwen.com/subject/hiltnttx.html