美文网首页
2021-04-10

2021-04-10

作者: 小小程序员一枚 | 来源:发表于2021-04-10 18:10 被阅读0次
《Leveraging Multi-Token Entities in Document-Level Named Entity Recognition》
  • 动机:
    1.以往对NER的研究都是基于句子级别的研究,最好的模型也是基于独立的句子级别的,但在一篇文章中,不同句子中的同一实体可能由于不同的上下文或不完整的描述而被错误的标注成了不同的实体,因此作者提出利用文档级别的上下文信息提取同一提及的文档级别的特征
    2.作者将数据集中的实体分为multi-token entity和single-token entity,在作者看来,multi-token entity 所在的上下文通常更具体,因此多个token组成的实体更有可能对与其包含相同token的单个实体的识别有所帮助,为此作者设计了一个multi-token entity 分类器,以标记某个实体是否是multi-token entity,在形成文档级特征时,不仅考虑到不同句子中的相同token的上下文输出的隐藏向量之间的语义attention score,而且将分类器的结果也计算attention score,并将其二者融合,主要目的是为了让模型更关注multi-token entity


  • 贡献:
    1.提出了一种新的基于注意的文档级NER模型,该模型利用跨句子的全局上下文特征作为本地上下文特征的补充
    2.利用文档中的multi-token entity来帮助NER,利用多分类器的结果来指导生成文档级特征,并最终影响NER的结果
    3.实验结果证明了该方法的有效性

  • 模型:



    以上是整个模型的框架,大致分为4个部分:
    1.word embedding +char CNN embedding + sentence-level lstm
    2.Muti-Token entity Classification:
    从图中可以看出,分类器的输入主要是目标token及其前面一个token和后面一个token的lstm隐藏向量输出,输出有3类,分别是SUB、NSUB和Other,SUB指示它是一个multi-token entity,NSUB指示它是一个single-token entity,其他为other
    3.document-level module:



    以上是文档级别的特征表示的具体架构图,可以看到输入为lstm的隐藏向量输出和多分类器的结果输出,最终attention score为二者attention score相加


    最终得到的ai是隐藏向量的权重,相当于指示不同句子中的相同token之间的关系的大小,di是该token的文档级特征表示
    4.CRF 标签预测

  • 实验:
    1.数据集:



    对于Ontonotes数据集,只取了新闻专线(nw)、广播新闻(bn)和杂志部分的数据集组成了Ontonotes(nbw),其他部分的数据集全局相关性较弱,比如:微博数据
    2.实验结果:




    其中glove、bert-base、flair是用不同的向量去初始化word embedding的结果
  • case 分析:
    为了体现ME 分类器的作用,作者选取了CoNLL 2003数据集中的两个例子来做分析:



    1.例1中的第二句话中MEID-ME(上述作者提出的模型去掉了ME部分)模型错误地将“Matsushita”单词识别成了ORG,而MEID(作者提出的模型)能够将其正确地识别成PER,从以下两图能够看出,未加ME部分时,occ_2与occ_1之间的attention score不是很高,而b图中,二者之间的attention score明显上升,因此最终的识别结果是MEID模型识别正确



    2.例2中“ZIMBABWE OPEN”是一个multi-token entity,由于第一个句子太短,仅仅只是一个title,所以对于MEID-ME模型来说,它可能更多地将其与3,4,5句子中的Zimbabwe联系起来,所以导致最终的识别结果出错,但MEID模型更多地将其与第2个句子联系起来,所以最终将其正确识别成了MISC类别,从下面的c图(MEID-ME)可以看出,occ_1与occ_3、occ_4、occ_5的attention score最高,但d图中(MEID),occ_1与occ_2的attention score最高
    3.还有一个现象,d图中,occ_3,occ_4,occ_5与occ_1和occ_2的attention score也很高,但最终的识别结果却没出错,猜测可能是在最终进行标签预测时,本地的上下文特征起了主导作用(从整个模型的架构图可以看到,最终是将hidden state和document representation 拼接起来),所以需要将二者融合,共同对最终的预测起作用

相关文章

  • bitshares比特股数据20210410

    2021-04-10比特股BTS大额转账的记录 时间转出转入BTS数量15:00:12aex-bts-deposi...

  • 2021-04-10 一周学习回顾

    【2021-04-10 日精进 第311天】表现:9分 体验,感受,情绪 4.5-4.6日学习“触动”,回听有关...

  • 托举

    我怎么如此幸运-99将帅挑战赛35-重生210-戴红霞2021-04-10 我怎么如此幸运-托举 1.我怎么如此幸...

  • 简听隐私政策

    本政策仅适用于简听产品或服务。 最近更新日期:2021-04-10 本政策将帮助您了解以下内容: 一、我们如何收集...

  • 班主任日记1

    2021-04-10 星期六 写班主任日记,是我从想当班主任时就已经有的美好想象。但是我第一次真正当班主任已经...

  • 2021-04-10

    孩子的成绩在一次次下降,老公非常失望,和孩子约谈了一次,分析试卷,写保证,提要求,仪式感满满的体罚,本来我很平静,...

  • 2021-04-10

    2021.4.9周五 半夜起来上厕所一点半,做了梦,讲恐怖故事。具体忘了,总之不太安稳但是已经是深度睡眠。五点起来...

  • 2021-04-10

    一切都会往好的方向去走是吗

  • 2021-04-10

    在写毕业论文,智齿又疼。 日常熬夜到两点,又困又饿,实验室就我一个人。 我总想写很多东西,总觉得我应该会是一个好的...

  • 2021-04-10

    有些人和事,自己问心无愧就好,不是你的也别强求。反正要离去的,迟早都要离去。留下的是美的风景,最后剩下的才是真人生。

网友评论

      本文标题:2021-04-10

      本文链接:https://www.haomeiwen.com/subject/lfknkltx.html