GRU

作者: 重新出发_砥砺前行 | 来源:发表于2017-01-30 05:56 被阅读189次

    GRU(Gated Recurrent Unit Recurrent Neural Networks)


    GRU 对两个方面进行了改进:1. 序列中不同的位置的单词对当前的隐藏层的状态的影响不同,越前面的影响越小。2. 误差可能是由某一个或者几个单词引起的,更新权值时应该只针对相应的单词。 

    相关文章

      网友评论

        本文标题:GRU

        本文链接:https://www.haomeiwen.com/subject/vnzcittx.html