美文网首页
《Targeted Aspect-Based Sentiment

《Targeted Aspect-Based Sentiment

作者: best___me | 来源:发表于2018-04-06 21:49 被阅读0次

论文链接:http://www.sentic.net/sentic-lstm.pdf

会议:2018 AAAI

文章对Attention机制的解释:Such mechanism takes an external memory and representations of a sequence as input and produces a probability distribution quantifying the concerns in each position of the sequence.

笔记 笔记

本文的方法:

架构图

先将句子送到双向LSTM中,接着是attention component,target级别的attention的输出作为target-level的representation,接着这个target representation和aspect embedding一起计算句子级别的attention,将整个句子转换为一个vecotr。

1. Target-level Attention

我的理解。。。原文中没有说H’ 是怎么计算的,感觉是还有另一个LSTM去计算target的隐状态

Self-attention:

Target-level attention

2. Sentence-level Attention Model

Sentence-level Attention

3. Commonsense Knowledge

常识知识,使用SenticNet

4. Sentic LSTM

增加SenticNet的信息

我的理解:本文关注一个新的问题,就是target和aspect级别的情感分析。提出了层次化的attention去做分类,并且加入了SenticNet的一些外部信息,增强了LSTM的结构。

相关文章

网友评论

      本文标题:《Targeted Aspect-Based Sentiment

      本文链接:https://www.haomeiwen.com/subject/aoglcftx.html