美文网首页
Seq2Seq -- 循环神经网络

Seq2Seq -- 循环神经网络

作者: 元宝的技术日常 | 来源:发表于2020-05-07 22:15 被阅读0次

    1、Seq2Seq 出现解决的问题

    上文针对于LSTM进行了讲解,随着发展,在机器翻译领域,普通的LSTM优势渐渐就追不上人们内心对准确率增长的期待;借鉴LSTM的思想,达到期待,在机器领域应运而生了--Seq2Seq模型。

    2、Seq2Seq 介绍

    Seq2Seq 结构

    如图,整个模型可以分为两部分:LSTM Encoder 和 LSTM Decoder。这种组成,一般被称作为 Encoder - Decoder 结构。在LSTM Encoder部分,试图用一个LSTM 将原始的语料信息编码起来;对应的在LSTM Decoder部分,试图将编码后的原始语料和翻译语料一同解码,形成一个解码器。

    中间传递的是对原始语料编码后的最终隐含状态。

    这种结构,是对LSTM的一种结构上的拓展,分为Encoder 和 Decoder使得结构很清晰,这种思想也一直借鉴。但是,试图用LSTM将信息都保存下来还是很困难,随着句子长度越来越长,前面输入的信息很容易被稀释。

    3、参考资料

    相关文章

      网友评论

          本文标题:Seq2Seq -- 循环神经网络

          本文链接:https://www.haomeiwen.com/subject/uixnwhtx.html