美文网首页
(含源码)「自然语言处理(NLP)」Question Answe

(含源码)「自然语言处理(NLP)」Question Answe

作者: Shu灬下雨天 | 来源:发表于2020-03-02 21:48 被阅读0次

    来源: AINLPer 微信公众号(每日更新...
    编辑: ShuYini
    校稿: ShuYini
    时间: 2020-03-02

    引言:下面是作者整理的关于Question Answering(QA)相关的论文文章,下面这10篇文章都顶会ICLR发表的文章,能找到源码的作者也直接贴出来了,如果你对Question Answering(QA)感兴趣或者也在找一些相关的文章,希望能够帮助你~~

    TILE: Pretrained Encyclopedia: Weakly Supervised Knowledge-Pretrained Language Model
    Author: Wenhan Xiong, Jingfei Du, William Yang Wang, Veselin Stoyanov
    Paper:https://openreview.net/pdf?id=BJlzm64tDH
    Code: None
    论文简述:提出了一个简单而有效的弱监督预训练方法,该方法明确地迫使模型包含关于真实世界实体的知识。用我们的新方法训练的模型在实际任务上产生了显著的改进。



    TILE: Differentiable Reasoning over a Virtual Knowledge Base
    Author: Bhuwan Dhingra, Manzil Zaheer, Vidhisha Balachandran, Graham Neubig, Ruslan Salakhutdinov, William W. Cohen
    Paper:https://openreview.net/pdf?id=SJxstlHFPH
    Code: http://www.cs.cmu.edu/~bdhingra/pages/drkit.html
    论文简述:本文使用一个语料库作为虚拟知识库来回答复杂的多跳转问题。本文主要描述了一个神经模块DrKIT,它像KB一样遍历文本数据,并遵循在语料库中提到的实体之间的关系路径。



    TILE: Generative Question Answering: Learning to Answer the Whole Question
    Author: Mike Lewis, Angela Fan
    Paper:https://openreview.net/pdf?id=Bkx0RjA9tX
    Code: None
    论文简述: 本文介绍了问题和答案的联合分布的生成模型,这些模型被训练来解释整个问题,而不仅仅是回答它。我们的问题回答(QA)模型是通过学习先验而不是答案来实现的,并且通过条件语言模型生成给定答案的问题——允许在逐字生成问题时进行可伸缩和可解释的多跳推理。


    TILE: FlowQA: Grasping Flow in History for Conversational Machine Comprehension
    Author: Hsin-Yuan Huang, Eunsol Choi, Wen-tau Yih.
    Paper:https://openreview.net/pdf?id=ByftGnR9KX
    Code: None
    论文简述:会话机器理解需要对会话历史有深刻的理解。为了使传统的单轮模型能够全面地对历史进行编码,本文引入了Flow机制,通过交替的并行处理结构,可以将在回答前面问题的过程中生成的中间表示然后合并到一起。与将之前的问题/答案作为输入串联起来的浅层方法相比,Flow更深入地集成了会话历史的潜在语义。


    TILE: Coarse-grain Fine-grain Coattention Network for Multi-evidence Question Answering
    Author:Victor Zhong, Caiming Xiong, Nitish Shirish Keskar, Richard Socher
    Paper: https://openreview.net/pdf?id=Syl7OsRqY7
    Code: None
    论文简述: 端到端神经模型在回答问题方面取得了重大进展,但最近的研究表明,这些模型隐含地假设答案和证据在一个文档中紧密地出现。在这项工作中,我们提出了粗粒度细粒度协同注意网络(CFC),这是一种新的问题回答模型,它结合了来自多个文档的证据信息。


    TILE: Mastering the Dungeon: Grounded Language Learning by Mechanical Turker Descent
    Author:Zhilin Yang, Saizheng Zhang, Jack Urbanek, Will Feng, Alexander Miller, Arthur Szlam, Douwe Kiela, Jason Weston.
    Paper:https://openreview.net/pdf?id=SJ-C6JbRW
    Code: None
    论文简述: 人类是在环境中交互式地学习语言的。本文提出了一个交互式学习过程,称为Mechanical Turker Descent (MTD),训练代理人执行自然语言命令植根于幻想文本冒险游戏。



    TILE: DCN+: Mixed Objective And Deep Residual Coattention for Question Answering.
    Author:Caiming Xiong, Victor Zhong, Richard Socher.
    Paper:https://openreview.net/pdf?id=H1meywxRW
    Code: None
    论文简述: 传统的问答模型使用交叉熵损失进行优化,这种方法寻求精确的答案,但代价是惩罚有时同样精确的邻近答案。为此本文提出了一种交叉熵损失与自惩罚策略学习相结合的混合解决方法,利用词重叠产生的激励来解决评价指标与优化目标之间的偏差。



    TILE: FusionNet: Fusing via Fully-aware Attention with Application to Machine Comprehension.
    Author:Hsin-Yuan Huang, Chenguang Zhu, Yelong Shen, Weizhu Chen.
    Paper:https://openreview.net/pdf?id=BJIgi_eCZ
    Code: None
    论文简述: 本文介绍了一种新的神经结构FusionNet,它从三个方面扩展了现有的自注意力方法。首先,提出了一个新的“词史”概念,将注意力信息从最低的词级嵌入到最高的语义级表征中。其次,它确定了一个自注意力评分函数,该函数更好地利用了“词史”概念。第三,提出了一种全意识的多层次注意力机制,可以在一个文本(如一个问题)中捕获完整的信息,并在其对应的文本(如上下文或文章)中逐层加以利用。


    TILE: Ask the Right Questions: Active Question Reformulation with Reinforcement Learning
    Author: Christian Buck, Jannis Bulian, Massimiliano Ciaramita, Wojciech Gajewski, Andrea Gesmundo, Neil Houlsby, Wei Wang.
    Paper:https://openreview.net/pdf?id=S1CChZ-CZ
    Code: None
    论文简述: 本文将问答(QA)作为一种强化学习任务,称之为主动问答。这里提出一个介于用户和黑箱QA系统之间的代理,并学会重新组织问题以获得最佳答案。代理通过对最初问题的自然语言重新表达来探测系统,并收集返回的证据来获得最佳答案。


    TILE: Query-Reduction Networks for Question Answering.
    Author:Minjoon Seo, Sewon Min, Ali Farhadi, Hannaneh Hajishirzi.
    Paper: https://arxiv.org/pdf/1606.04582.pdf
    Code: None
    论文简述:本文介绍了一组可微图转换,并使用它们来构建一个具有图内部状态的模型,该模型可以从文本中提取结构化数据并可以使用它来回答查询。


    Attention

    更多自然语言处理相关知识,还请关注AINLPer公众号,极品干货即刻送达。

    相关文章

      网友评论

          本文标题:(含源码)「自然语言处理(NLP)」Question Answe

          本文链接:https://www.haomeiwen.com/subject/qwkikhtx.html