美文网首页
关于Tensorflow的Rnn理解

关于Tensorflow的Rnn理解

作者: 沧海一声笑的DIY宇宙 | 来源:发表于2018-10-24 23:13 被阅读0次

刚开始学习Rnn的结构的时候,经常看到的图是下面这样的:

理所当然的认为,如果用代码构建出来Rnn网络,应该是有多份节点的。而这个数量正好就是timestep的数量。

但是某天某人指出我的理解是错误的,并让我好好看了下tensorflow的lstm的源代码,这才发现对于Rnn的理解完全错误了。

修正后的理解如下:

1.首先节点只有1份,而timestep是用循环实现,所以是无限的。这意味着训练和推理的时候可以把全部的数据都一次传入,只要显存足够大。

2.正是因为节点只有1份,那么前置的网络就不能简单的用个全连接网络了,这样全连接权重数量限制了timestep的数量。可以直接用多层Rnn Node来替代普通全连接层。

3.每个batch的训练开始都会把state清空。

4.在训练的时候如果需要的内存太大,无法一次全部传入网络,可以把中间状态state保存下来,把timestep分成多次进行训练。下次把state传入。

相关文章

  • 关于Tensorflow的Rnn理解

    刚开始学习Rnn的结构的时候,经常看到的图是下面这样的: 理所当然的认为,如果用代码构建出来Rnn网络,应该是有多...

  • RNN in Tensorflow

    推荐一篇关于如何在Tensorflow框架下实现RNN的文章。 TensorFlow中RNN实现的正确打开方式 文...

  • TensorFlow之使用RNN处理Mnist数据集

    关于tf.nn.dynamic_rnn tf.nn.dynamic_rnn 函数是tensorflow封装的用来实...

  • RNN

    前馈神经网络? 反向传播算法?理论不理解 解读tensorflow之rnn

  • RNN

    RNN资源整理:awesome-rnn GitHub 上的RNN项目: Awesome Tensorflow Im...

  • 深度学习--RNN文本分类

    本文Github 1. RNN文本分类网络结构 2. tensorflow中的RNN RNN在tensorflo...

  • tensorflow RNN

    github链接 和其他代码比起来,这个代码的结构很不科学,只有一个主文件,model和train没有分开…… 参...

  • tensorflow rnn

  • 利用RNN(lstm)生成文本

    致谢以及参考 最近在做序列化标注项目,试着理解rnn的设计结构以及tensorflow中的具体实现方法。在知乎中找...

  • 6.1.4 Implementing Our First Rec

    让我们来实现目前所学的知识。Tensorflow 支持多种衍生的RNN, 这些都可以在tf.nn.rnn_cell...

网友评论

      本文标题:关于Tensorflow的Rnn理解

      本文链接:https://www.haomeiwen.com/subject/vvuftqtx.html