前向的LSTM与后向的LSTM结合成BiLSTM。比如,我们对“我爱中国”这句话进行编码,模型如图1所示。
![](https://img.haomeiwen.com/i9966001/52f972bb5cd00656.png)
前向的依次输入“我”,“爱”,“中国”得到三个向量{
,
,
}。后向的
依次输入“中国”,“爱”,“我”得到三个向量{
,
,
}。最后将前向和后向的隐向量进行拼接得到{[
,
], [
,
], [
,
]},即{
,
,
}。
对于情感分类任务来说,我们采用的句子的表示往往是[,
]。因为其包含了前向与后向的所有信息,如图2所示。
![](https://img.haomeiwen.com/i9966001/315224dd5c822007.png)
网友评论