BiLSTM

作者: 衣介书生 | 来源:发表于2019-05-16 23:54 被阅读0次

前向的LSTM与后向的LSTM结合成BiLSTM。比如,我们对“我爱中国”这句话进行编码,模型如图1所示。

1540354951193.png

前向的LSTM_L依次输入“我”,“爱”,“中国”得到三个向量{h_{L0}, h_{L1}, h_{L2}}。后向的LSTM_R依次输入“中国”,“爱”,“我”得到三个向量{h_{R0}, h_{R1}, h_{R2}}。最后将前向和后向的隐向量进行拼接得到{[h_{L0}, h_{R2}], [h_{L1}, h_{R1}], [h_{L2}, h_{R0}]},即{h_0, h_1, h_2}。

对于情感分类任务来说,我们采用的句子的表示往往是[h_{L2}, h_{R2}]。因为其包含了前向与后向的所有信息,如图2所示。

1540354954203.png

参考

BiLSTM介绍及代码实现

相关文章

网友评论

      本文标题:BiLSTM

      本文链接:https://www.haomeiwen.com/subject/jbslaqtx.html