前向的LSTM与后向的LSTM结合成BiLSTM。比如,我们对“我爱中国”这句话进行编码,模型如图1所示。

前向的依次输入“我”,“爱”,“中国”得到三个向量{
,
,
}。后向的
依次输入“中国”,“爱”,“我”得到三个向量{
,
,
}。最后将前向和后向的隐向量进行拼接得到{[
,
], [
,
], [
,
]},即{
,
,
}。
对于情感分类任务来说,我们采用的句子的表示往往是[,
]。因为其包含了前向与后向的所有信息,如图2所示。

网友评论