美文网首页
Read, Attend and Comment: A Deep

Read, Attend and Comment: A Deep

作者: 加油11dd23 | 来源:发表于2020-02-13 03:33 被阅读0次

    一篇论文的简要介绍:

    0、摘要

    自动新闻评论是一种检验NLP的新场景。

    提出了一种"读,聚焦注意力,评论"的过程,之后将这一过程形式化为阅读网络和生成网络,阅读网络负责理解一篇新文章并且提炼一些重点。生成网络负责基于将注意力放在提取的离散点和新闻标题来生成评论。网络的训练方法为一种通过优化真是目标的变分下界一端到端的训练方法来进行训练。

    一、介绍

    伦理问题。。

    在这之前的一些工作,评论往往是基于标题和文章主体生成的,或者是基于整个文章加上attention机制生成的。

    一方面,标题短,因而用这个生成会缺失很多信息,另一方面,文章内容和评论,不是“平行文本”。因而直接用s2s不好用。这些方法都过度简化了。

    实际上,人们阅读文章,首先聚焦于文章的某些点,然后基于这些点他们进行评论。这篇文章是关于新FIFA排名的,我们从众多评论中选择两个,以解释人们在评论部分的表现。表1通过Yahoo!News中的示例说明了新闻评论。首先,两个评论者都贯穿了整篇文章,因为他们的评论是建立在正文中的细节之上的。其次,本文提供了有关新排名的许多详细信息,但两位评论者仅评论了几点。第三,两位评论者关注文章的不同位置:第一位评论者注意到排名是基于新世界杯的结果,并对巴西的地位感到好奇;而第二位评论者只是对英格兰的新位置兴奋。

    阅读网络模拟人们如何消化新闻文章,并充当文章的编码器。然后,生成网络模拟人们阅读后如何评论文章,并充当评论的解码器。

    (一)阅读网络

    具体来说,从下到上,阅读网络由表示层,融合层和预测层组成

    第一层通过带有门控循环单元的循环神经网络表示新闻的标题,通过自我关注来代表新闻的主体,这种自我关注可以模拟单词之间的长期依赖性。

    第二层通过使用注意机制和门机制将标题的信息融合到正文的表示中来形成整个新闻的表示。注意机制在标题中选择有用的信息,门机制进一步控制了此类信息流入文章表示的数量。

    最后,第三层建立在先前的两层之上,并使用多标签clas-sifier和指针网络来预测一堆显着的跨度。

    通过阅读网络,我们的模型可以理解新闻报道并将其归结为一些关键点。

    (二) 生成网络

    生成网络是一种RNN语言模型,它通过注意力机制逐词生成评论在选定的范围和新闻标题上。

    在训练中,由于没有显着的跨度,我们将它们视为潜在变量,并通过蒙特卡洛斯抽样方法优化真实目标的下限,从文章评论对中共同学习这两个网络。因此,评论预测中的训练错误可以反向传播到跨度选择,并用于监督新闻阅读理解。

    (三)数据集

    我们在两个大型数据集上进行实验。一个是最近在(Qin et al。,2018)中发布的中文数据集,另一个是通过抓取Yahoo!新闻。对这两个数据集的评估结果表明,我们的模型在自动度量和人工判断方面都可以大大优于现有方法。

    (四)贡献点

    我们的贡献有以下三个方面:(1)提出了利用阅读网络和生成网络进行新闻评论生成的“阅读出席评论”程序的建议; (2)通过端到端的学习方法对两个网络进行联合优化; (3)对两个数据集上所提模型的有效性进行实证验证。

    二、相关工作

    新闻评论的生成是自然语言生成(NLG)的子任务。在各种NLG任务中,本文研究的摘要生产(Rush等人,2015; Nal-lapati等人,2016; See等人,2017)和产品评论生成(Tang等人,2016; Dong)最相关等人,2017)。

    但是,新闻评论的生成与其他两个任务之间存在明显的区别:我们任务的输入是非结构化文档,而产品评论生成的输入是产品的结构化属性;我们任务的输出是注释,通常会用附加信息扩展输入的内容,而摘要生成则是对输入内容的压缩转换。

    最近,出现了一些有关新闻评论生成的研究。例如,Zheng等。 (2018)提出了门控注意力神经网络模型,以从新闻标题中生成新闻评论。生成对抗网络进一步完善了该模型。 (2018)发布了一些基本模型结果的数据集。与所有现有方法不同,我们尝试在生成之前理解整个新闻,并进行端到端学习,以共同优化理解模型和生成模型

    我们的模型部分受最近机器阅读理解(MRC)成功的启发,该技术的兴旺可归因于SQuAD(Rajpurkar等人,2016,2018)和MS Marco( Nguyen等人,2016年)等,已经提出了许多模型来应对MRC挑战,包括BiDAF(Seo等人,2016年),r-net(Wang等人,2017年),DCN(Xiong等人)。 (2016年),文档阅读器(Chen andBordes,2017年),QANet(Yu等人,2018年)和s-net(Tan等人,2018年)等。我们的工作可以看作是将MRC应用于新的NLG任务。该任务旨在为新闻文章生成评论,这与现有的MRC任务(目标是回答问题)不同。我们的学习方法也不同于MRC工作中的学习方法。

    相关文章

      网友评论

          本文标题:Read, Attend and Comment: A Deep

          本文链接:https://www.haomeiwen.com/subject/wdtkfhtx.html