任务:关系抽取
来源:COLING 2014
引言:
关系分类的任务是预测名词对之间的语义关系,可以定义为:给定一个句子,其名词对为e1和e2,我们的目标是识别出e1和e2之间的关系。所以其实就是句子层面的分类。
论文整体架构:
这一篇是关系抽取中一个比较经典的模型,其实就是一个CNN。输入是句子序列,包含的特征由sentence level features和lexical level features构成。输出是该句子中包含的实体e1和e2之间的关系类别。
模型整体架构sentence level features:
模型的word representation部分将单词映射为词向量Word Features(即Figure 2中的WF部分),同时该论文在这一部分的工作还引入了位置向量,即获得句子中每个词与两个实体的相对位置距离,通过和词向量一样的方法,将距离映射成一个随机初始化的向量,如下图所示:
这样每个word都会有两个位置向量(即Figure 2中PF部分),将这两个向量和word本身的词向量拼接在一起作为输入,经过卷积操作后得到sentence level features。
lexical level features:
得到sentence level features之后,可以看到模型还拼接了lexical level features,这部分特征主要包括:
L1: 实体1本身
L2: 实体2本身
L3: 实体1的左右两个词
L4: 实体2的左右两个词
L5: WordNet中两个实体的上位词
这两部分特征拼接之后便可以通过全连接层和softmax进行分类了。从上图中可以看到,lexical level features的这些特征的拼接对模型分类还是有一定的作用的。
总结:
论文模型很简单,毕竟是很早的论文了,且也达到了当时的最佳效果。复现也比较简单,很适合入门。
网友评论