来源:AINLPer微信公众号
编辑: ShuYini
校稿: ShuYini
时间: 2019-12-24
TILE: Improving Knowledge-aware Dialogue Generation via Knowledge Base Question Answering
Contributor : 华南理工大学(广州)
Paper: https://arxiv.org/pdf/1912.07491v1.pdf
Code: https://github.com/siat-nlp/TransDG
文章摘要
文章提出了一种新的知识感知对话生成模型TransDG,该模型将知识库问答任务中的问题表示和知识匹配能力转化为会话生成中的话语理解和客观知识选择。此外,本文还提出了一个响应引导注意机制和一个多步骤解码策略,以引导我们的模型关注反应生成的相关特征。在两个基准数据集上的实验表明,该模型在生成信息丰富、流畅的对话方面具有明显的优势。
文章主要内容
1、提出了一种新的知识感知对话生成模型TransDG,该模型将知识库中的问题理解能力和事实提取能力转化为后理解能力和知识库中的事实知识选择能力。
2、提出了一种多步译码策略,该策略能够捕捉到信息与响应之间的信息连接。第一步解码器产生的post和draft响应都与KB中的相关事实相匹配,使得第二步解码器产生的最终响应相对于post更合适、更合理。
3、提出了一种响应引导注意机制,利用k-最佳响应候选项引导模型关注相关特征。
4、在真实对话数据集上的大量实验表明,我们的模型在定量和定性两方面都优于比较方法。
对话生成模型TransDG
如下图所示,该模型主要包含两个部分:一个KBQA模型和一个对话生成模型,在这个模型中,从KBQA任务中获得的知识在编码和解码阶段都被转换为对话生成。
编码层
问题表示:利用单词级和依赖级信息来学习问题Q的表示。主要采用双向门控递归单元(BiGRU)获取问题中单词的隐藏状态。为了更好地捕捉问题中单词之间的长期依赖关系,遵循(Xu et al. 2016【Question answering on freebase via relation extraction and textual evidence.】)使用依赖路径作为额外的表示,将单词和依赖项标签与方向连接起来。通过填充来对齐单词级和依赖级序列,并通过元素添加来合并它们的隐藏状态。
候选回答表示: KBQA任务中的候选答案表示为其中每个答案
都是特定知识库中的一个事实,以主题实体、关系、对象实体的形式存在。我们在字级和路径级对这些事实进行编码。
知识感知对话生成
给定一个请求,对话的一代的目标是生成一个适当的响应
,其中
和
发布和响应的长度,分别。如上图所示,我们的对话生成模型从KBQA任务中传输知识,从而促进知识级别的对话理解和事实选择。
知识感知编码器
对话生成使用基于端到端(Seq2Seq)的方法来生成给定请求的响应。Seq2Seq的编码器一个字一个字地读取请求 X,并通过GRU生成每个单词的隐藏表示。为了丰富请求的代表性以便更好的理解,提出了一个响应引导注意机制,它使用检索到的类似请求的响应来引导模型只关注相关信息。
知识感知多步解码器
知识感知解码器采用多步译码策略,将从预先训练的KBQA模型中学习到的知识选择能力转化为响应。第一步解码器通过整合与请求相关的外部知识来生成草稿响应。第二步解码器通过参考第一步解码器产生的请求、上下文知识和草稿响应来生成最终响应。这样,多步译码器就可以捕捉到请求和响应之间的知识连接,从而产生更连贯、信息量更大的响应回答。
实验结果
如下表2所示,TransDG对所有数据集的perplexity最低,表明生成的响应更符合语法。




ACED
Attention
更多自然语言处理相关知识,还请关注AINLPer公众号,极品干货即刻送达。
网友评论