美文网首页
手推RNN(第二部)

手推RNN(第二部)

作者: 影醉阏轩窗 | 来源:发表于2018-07-03 16:14 被阅读0次
  • 接着上一篇RNN的推导,我们这次来理解LSTM的原理的推导过程.
  • LSTM的由来这里简而概之,保留该保留的,忘记该忘记的,不懂的人可以百度一下,因为比较简单这里不再概述.
  • 在Alex Graves的这篇论文《Supervised Sequence Labelling with Recurrent Neural Networks》中对LSTM进行了综述性的介绍,并对LSTM的Forward Pass和Backward Pass进行了公式推导。
  • 本博文是根据LSTM的公式推导详解这篇翻译进行总结和整理(部分内容可能有问题,加了自己的观点),由于看外文太麻烦了,索性投机取巧了~~
  • LSTM的结构图如下:
LSTM简图 剖析图(/home/wjy/Desktop/123.png)

没有看原论文,个人感觉这里有问题,从下面的公式推导来看,这里的图少了一点:当前cell和下一个cell之间传递,现将自己改动的图放在下面

修改后的图
  • 前向传播

就是结构复杂一点,其他的都差不多,自己动手退一下就好

前向传播
  • 反向传播
权重示意图
  1. 这里得注意一下我刚开始画的那条线,不然的话中间推导起来有点麻烦.
  2. 反向传播主要是看反向传播线,找到当前需要求解的梯度值,然后找与之相对应的反向传播线即可,
  3. 这里给出一个最难求解的CELL端的反向传播的分析例子,其它的自己动手理一下就好.
Cell梯度求解示意图
  • 首先找到cell与之相连的反向传播线,这里我们找到是四个
    1. 下一时刻的Output Gate
    2. 当前时刻的Cell Output
    3. 下一时刻的Input Gate
    4. 下一时刻的Forget Gate
  • 分析完这些之后那就进行链式求导法则
Cell梯度图 全部反向梯度图
  • 总结
  1. LSTM就是RNN的加深,就像刚开始我说的:保留该保留的,忘记该忘记的,
  2. 推导的过程要屡清楚传递线路
  3. 熟悉链式求导法则
  4. 就这样了,理论和实践还有很大差距,接下来我会用例子带你进入RNN的奇妙之旅
  • 参考文献

RNN推导的挺好的,就是没图片

RNN推导参考之一

LSTM文章简介,没有公式推导

外国大神的论文,来自中国大神的翻译,非常棒

手写RNN代码

相关文章

  • 手推RNN(第二部)

    接着上一篇RNN的推导,我们这次来理解LSTM的原理的推导过程.LSTM的由来这里简而概之,保留该保留的,忘记该忘...

  • 手推RNN(第一部)

    基础知识不去讲解,如果有不理解CNN的BP算法的自行去百度推导(由于比较简单,这里不再给出).这里分为两个篇幅去记...

  • Pytorch学习之LSTM识别MNIST数据集

    实验RNN循环神经网络识别MNIST手写数字集 本文主要是讲述pytorch实现的RNN神经网络去识别MNIST手...

  • LSTM网络

    之前和大家介绍了循环神经网络(RNN),RNN的魅力在于它能够很好地利用历史信息。例如,使用前一时刻的视频帧可以推...

  • 02-25:RNN算法

    RNN算法 1、RNN算法原理 (1)RNN变种GRU (2)RNN变种LSTM LSTM缺点分析: todo: ...

  • RNN

    RNN资源整理:awesome-rnn GitHub 上的RNN项目: Awesome Tensorflow Im...

  • [tensorflow](六) RNN

    20181204 qzd 1 RNN简介 2 LSTM 3 RNN的变种 4 RNN样例应用

  • 「深度学习」循环神经网络 RNN 学习笔记

    循环神经网络 RNN 演化流程: RNN -> BRNN -> GRU -> LSTM RNN 「循环神经网络」 ...

  • 深入浅出循环神经网络 RNN

    本文主要针对循环神经网络 RNN 的原理、结构和应用进行介绍,介绍什么是 RNN,RNN的主要结构有哪些,RNN ...

  • 深度学习——RNN(2)

    前言:前面介绍了LSTM,下面介绍LSTM的几种变种 双向RNN Bidirectional RNN(双向RNN)...

网友评论

      本文标题:手推RNN(第二部)

      本文链接:https://www.haomeiwen.com/subject/pvhjuftx.html