KBQA研究进展
阿里小蜜
小蜜KBQA问题分类表
Multi-point semantic representation 框架
-
过程
- 将每个属性拆解成细粒度的四种因子信息(topic、predicate、object/condition和query type)用以区分易混淆属性
- 利用 Compositional Intent Bi-Attention(CIBA,如图21)将粗粒度的属性信息和细粒度的因子信息与问句表示相结合,增强问句的语义表示
-
CIBA架构
-
实验结果
-
CIBA模型结果比较
-
易混淆意图比较
-
研发了基于 MultiCG的Semantic Parser 算法对业务中的复杂问句进行解析,并利用Dependency parser模型对约束属性进行消歧
Hierarchical KB-Attention Model
-
针对模型鲁棒性和表示能力弱,部分约束识别借助人工模板的问题,借鉴最近两年 Semantic Parser + NN 方法中 KV-MemNN 的建模思想
-
特点
- 对 Query 与 KB 之间的交互进行了细粒度的建模,以捕捉问句内部核心成分之间的修饰关系,来强化 Query 的层次化语义理解,在效果上超过了 MultiCG 的方法,并且具备更强的复杂问题解析能力和更好的可解释性
数据集
KBQA评测数据集列表
-
-
WebQuestions及其衍生数据集
-
问题来源于 Google Suggest API
-
答案使用 Amazon Mechanic Turk 标注生成
-
目前使用最广泛的评测数据集
-
不足
-
数据集中只有问答对,没有包含逻辑形式
-
改进版本
-
微软基于该数据集构建了 WebquestionsSP,为每一个答案标注了 SPARQL 查询语句,并去除了部分有歧义、意图不明或者没有明确答案的问题。
-
论文
- Yih W, Richardson M, Meek C, et al. The value of semantic parse labeling for knowledge base question answering[C]//Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers). 2016: 201-206.
-
-
-
-
简单问题占比在 84%,缺乏复杂的多跳和推理型问题
-
改进版本
-
为了增加问题的复杂性,ComplexQuestions在 WebQuestions 基础上,引入包含类型约束、显式或者隐式的时间约束、多实体约束、聚合类约束(最值和求和)等问题,并提供逻辑形式的查询。
-
论文
- Bao J, Duan N, Yan Z, et al. Constraint-based question answering with knowledge graph[C]//Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers. 2016: 2503-2514.
-
-
-
-
-
论文
- Berant J, Chou A, Frostig R, et al. Semantic parsing on freebase from question-answer pairs[C]//Proceedings of the 2013 conference on empirical methods in natural language processing. 2013: 1533-1544.
-
-
QALD系列(Question Answering over Linked Data)
-
复杂问题占比约 38%
-
包括多个关系和多个实体
- 如:“Which buildings in art deco style did Shreve, Lamb and Harmon design?”;
-
包括含有时间、比较级、最高级和推理类的问题
- 如:“How old was Steve Jobs’s sister when she first met him?”
-
-
Large-Scale Complex Question Answering Dataset (LcQuAD)
-
简单的单跳问题占比 18%
- 典型的问句形式如:“What are the mascots of the teams participating in the turkish handball super league?”。
-
该数据集的构建,先利用一部分 SPARQL 模板,一些种子实体和部分关联属性通过 DBpedia 生成具体的 SPARQL,然后再利用定义好的问句模板半自动利用 SPARQL 生成问句,最后通过众包形成最后的标注问题。
-
改进版本
-
数据量更大更多样的数据集 LcQuAD 2.0
-
论文
- Dubey M, Banerjee D, Abdelkawi A, et al. Lc-quad 2.0: A large dataset for complex question answering over wikidata and dbpedia[C]//International Semantic Web Conference. Springer, Cham, 2019: 69-78.
-
-
-
-
前沿趋势
更关注复杂问题解析
-
- 对复杂实体链接和具有歧义的易混淆句子上的属性识别工作是 KBQA 在工业界落地的一个重要方向
-
论文
- Zhang J, Ye Y, Zhang Y, et al. Multi-Point Semantic Representation for Intent Classification[J]. AAAI. 2020.
- 如何能设计更好地网络结构建模复杂问题的逻辑和语义结构、更好地融入 KG 信息解决复杂问题也是需要我们探索的方向
- 利用神经网络符号计算解决复杂问题,我们也希望看到有研究工作可以利用神经网络对符号计算的模拟,实现解释性强的,可学习地大规模知识问答和知识推理
模型鲁棒性增强
-
- 在 KBQA 实际应用中发现,其对语料的泛化理解以及拒识能力不强,严重影响了 KBQA 模型在工业环境的落地
-
论文指出在阅读理解任务中,仅在段落中增加一些句子,会使模型效果有大幅下降
-
论文
- Jia R, Liang P. Adversarial examples for evaluating reading comprehension systems[J]. arXiv preprint arXiv:1707.07328, 2017.
-
从单轮问答到多轮交互
- 真实场景下,用户经常连续询问多个问题,其中部分问题是对话相关,部分问题可以被映射到 KBQA 中。而现在的机器人通常是将问答和对话任务分开解决,我们认为有必要将两种任务统一设计建模,来解决真实场景下的此类问题
- 现在的一些研究在复杂多轮问答(如 CSQA)上的准确率还明显不能落地,期待有更多地工作可以关注这个领域的研究
总结
现有 KBQA 方法面临的两大核心挑战
- 复杂问题理解难
- 模型推理能力弱
KBQA 主流的两种方法
-
- Semantic Parser
- 针对复杂问题理解,介绍了利用查询图生成、Encoder-Decoder 和 KV-MemNN 的方法来进行语义解析的方法
-
- Information Retrieval
-
介绍了利用 Subgraph Embedding、CNN 、Attention 和 Memory Network 机制对 Query 和 KG 不同结构信息进行建模和匹配的方法
-
优点
- 此类方法减少了人工模板的依赖
-
不足
- 可解释性不强,且在现有的数据集结果上效果不佳
-
REF
https://mp.weixin.qq.com/s/NkwyHsmpZCwsQPiQOMK7zw
KBQA
当前主要面临的两个挑战
-
- 复杂问题理解难
- 如何更恰当地通过知识图谱建模并理解用户复杂问题,并增强方法的可解释性
-
- 模型推理能力弱
- 如何减少对于人工定义模板的依赖,训练具备推理能力、泛化性强的 KBQA 深度模型
现在主流两类方法
- Semantic Parser + NN (SP)
- Information Retrieval (IR)
-
各方法在WebQuestions上的Benchmark
-
-
结合SP的方法效果略高于IR
-
早期研究人员利用传统方法, 通过手工构建模板和规则的方式解析复杂问题
-
不足
- 需要较专业的语言学知识且可扩展性不强。
-
-
随着深度学习在 NLP 领域的应用,研究人员将 QA 问题视为用户 Query 与答案的二分类或者排序问题(IR),利用不同的网络结构(CNN or Attention),并结合 KG 中不同的上下文信息来编码候选答案和 Query 的分布式表示,最后通过计算两者间的匹配度选出最终的答案。此类方法将语义解析问题转化为大规模可学习的匹配问题
-
优点
- 减少了对于人工模板的依赖
-
缺点
- 模型的可解释性不强且整体效果欠佳
-
-
借助 KV Memory Network 中的多个记忆槽来解决 KBQA 中多跳推理问题成为了一个趋势
-
优点
- 不依赖于人工模板且可解释性较强
-
缺点
- 仍然不能很好地解析序数推理和显隐式时间约束的问题
-
-
最近出现了基于神经符号机 (Neural Symbolic Machine)的解决方案
-
论文
- Liang C, Berant J, Le Q, et al. Neural symbolic machines: Learning semantic parsers on freebase with weak supervision[J]. arXiv preprint arXiv:1611.00020, 2016.
-
-
-
Semantic Parser
-
基于 Semantic Parser 的方法通常将自然语言转化成中间的语义表示(Logical Forms),然后再将其转化为可以在 KG 中执行的描述性语言(如 SPARQL 语言)。
-
传统方法
-
依赖于预先定义的规则模板,或者利用监督模型对用户 Query 和语义形式化表示(如 CCG、λ-DCS)的关系进行学习,然后对自然语言进行解析
-
CCG 论文
- Steedman M. A very short introduction to CCG[J]. Unpublished paper. http://www. coqsci. ed. ac. uk/steedman/paper. html, 1996.
-
λ-DCS 论文
- Liang P. Lambda dependency-based compositional semantics[J]. arXiv preprint arXiv:1309.4408, 2013.
-
-
优点
-
需要大量的手工标注数据,可以在某些限定领域和小规模知识库(如 ATIS 、GeoQuery)中达到较好的效果
-
ATIS 论文
- Dahl D A, Bates M, Brown M, et al. Expanding the scope of the ATIS task: The ATIS-3 corpus[C]//Proceedings of the workshop on Human Language Technology. Association for Computational Linguistics, 1994: 43-48.
-
-
-
不足
- 当面临 Freebase 或 DBpedia 这类大规模知识图谱的时候,往往效果欠佳
-
-
查询图方法(Query Graph)
-
STAGG (Staged Query Graph Generation)
-
基于 Semantic Parser 的知识图谱问答框架
-
论文
- Yih S W, Chang M W, He X, et al. Semantic parsing via staged query graph generation: Question answering with knowledge base[J]. 2015.
-
-
查询图生成过程一共有三个主要步骤
-
- 实体链接
-
实体链接部分采用论文的实体链接系统得到候选实体和分数
-
论文
- Yang Y, Chang M W. S-mart: Novel tree-based structured learning algorithms applied to tweet entity linking[J]. arXiv preprint arXiv:1609.08075, 2016.
-
-
- 属性识别
- 属性识别阶段会根据识别的实体对候选的属性进行剪枝,并采用深度卷积模型计算 Query 和属性的相似度
-
- 约束挂载
- 约束挂载阶段会根据预定义的一些规则和匹配尝试进行最值、实体约束挂载
-
最后会根据图本身特征和每一步的分数特征训练一个 LambdaRank 模型,对候选图进行排序
-
-
优点
- 有效地利用了图谱信息对语义解析空间进行了裁剪,简化了语义匹配的难度
- 结合一些人工定义的处理最高级和聚合类问题的模板,具备较强理解复杂问题的能力
-
不足
- Query 与对应的 Query Graph 排序时,没有显式地将 Query Graph 利用神经网络进行泛化性强地语义特征提取,而是利用不同步骤的分数作为特征进行排序。
-
改进
-
微软
-
改进STAGG解决复杂问题的方法
-
Multiple Constraint Query Graph(MultiCG)
-
扩展了约束类型和算子,新增了类型约束、显式和隐式时间约束
-
论文
- Bao J, Duan N, Yan Z, et al. Constraint-based question answering with knowledge graph[C]//Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers. 2016: 2503-2514.
-
-
-
-
-
IBM
-
沿用STAGG框架
-
针对属性识别准确率较低的问题
-
在属性识别阶段,将 Query 和属性名称的字和词 2 个维度进行编码
-
利用 Hierarchical Residual BiLSTM计算相似度
-
-
优点
- 很好地弥补了 Semantic Gap 问题
- 提升了属性识别关键模块的准确率
-
不足
- 没有在复杂问题地处理上进行过多地改善
-
-
-
-
-
Semantic Matching Model
-
论文
- Luo K, Lin F, Luo X, et al. Knowledge base question answering via encoding of complex query graphs[C]//Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. 2018: 2185-2194.
-
该模型分别对 Query 和查询图进行编码
-
过程
- 首先对去掉实体的 Query 利用双向 GRU 进行全局编码得到q_tok
- 对 Query 进行依存分析,并利用 GRU 对依存路径进行编码,收集句法和局部语义信息,得到q_dep
- 两者求和得到 query 编码 q_p = q_tok + q_dep
-
优点
- 首次将 Query Graph 进行语义编码,计算与 Query 间的相关性程度,并以此作为匹配特征训练模型
- 该方法在 ComplexQuestions 数据集上的表现优于 MultiCG 的方法
-
不足
- 依然不能很好地利用神经网络模型处理显隐式时间约束等复杂问题
- 在对 Query Graph 进行编码的时候,因为最后使用了 Pooling,所以并没有考虑实体和关系的顺序问题
-
改进方法
-
Tree2Seq方法
-
论文
- Zhu S, Cheng X, Su S. Knowledge-based question answering by tree-to-sequence learning[J]. Neurocomputing, 2020, 372: 64-72.
-
将 Query Graph 利用 Tree-based LSTM 进行编码
-
优点
- 验证了 Query 结构信息在 QA 任务上的有效性
-
不足
- 没有在 WebQuestions 等数据集上取得 SOTA 的效果
-
-
-
-
编码器-解码器方法(Encoder-Decoder)
-
论文
- Dong L, Lapata M. Language to logical form with neural attention[J]. arXiv preprint arXiv:1601.01280, 2016.
-
将 Semantic Parser 问题转化为 Seq2Seq 问题
-
特点
- 使用一个 Seq2Seq 模型来完成 Query 到 Logical Forms 的转化
-
- 提出了一个 Seq-to-Tree 的模型,利用层次的树形解码器捕捉 Logical Forms 的结构
- 不依赖手工预定义的规则即可在领域数据集上取得 SOTA 方法
-
不足
- 该方法需要大量的训练语料,因此并不适合通用知识问答数据集
-
改进版本
-
论文
- Xu K, Wu L, Wang Z, et al. Exploiting rich syntactic information for semantic parsing with graph-to-sequence model[J]. arXiv preprint arXiv:1808.07624, 2018.
-
特点
- 使用 Syntactic Graph 分别表示词序特征(Word Order),依存特征(Dependency)还有句子成分特征(Constituency)
- 采用 Graph-to-Seq 模型,利用图编码器将 syntactic graph 进行编码
- 利用 RNN 对每时刻的状态向量和通过 Attention 得到的上下文信息进行解码得到对应的 Logical Forms
-
优点
- 该方法验证了额外的句法信息引入有利于提升模型的鲁棒性
-
不足
- 没有解决对于大量训练语料的依赖问题
-
-
-
Transition-Based 方法
-
论文
- Hu S, Zou L, Zhang X. A state-transition framework to answer complex questions over knowledge base[C]//Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. 2018: 2098-2108.
-
原理
-
定义了 4 种原子操作
-
定义了可学习的状态迁移模型
-
将复杂文图转化为 Semantic Query Graph
-
-
特点
- 该方法可以利用 BiLSTM 模型识别出多个节点(如多个实体),并用 Multi-Channel Convolutional Neural Network (MCCNN) 抽取节点间的多个关系
-
优点
- 克服了查询图生成方法中假设只有一个主要关系和利用人工规则识别约束的缺点
- 具备更强的鲁棒性
- 该方法的状态迁移是个可学习的过程,而此前的查询图生成方法中状态迁移过程是预定义的
-
-
Memory Network方法
-
论文
- Weston J, Chopra S, Bordes A. Memory networks[J]. arXiv preprint arXiv:1410.3916, 2014.
-
Key-Value Memory Network (KV-MemNN)
-
论文
- Miller A, Fisch A, Dodge J, et al. Key-value memory networks for directly reading documents[J]. arXiv preprint arXiv:1606.03126, 2016.
-
特点
- 此结构相比扁平的 Memory Network 结构,可以很好地存储具有复杂结构的数据(如 KG),并通过在多个记忆槽内的预测来进行浅层的多跳推理任务,最终生成相关子图路径
-
-
改进算法1
-
论文
- Xu K, Lai Y, Feng Y, et al. Enhancing Key-Value Memory Neural Networks for Knowledge Based Question Answering[C]//Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers). 2019: 2937-2947.
-
原理
-
用 KV-MemNN 来存储图谱中的三元组(SPO)信息
-
提出了一个新的 Query Update 机制
-
-
特点
-
- 实验验证可以让模型能够更好地注意到下一步需要推理的内容
- 该机制在更新时去掉 Query 中已经定位到的 Key 值
-
- 实验验证了它能避免复杂问题无效的推理过程
- 在 Key hashing 阶段加入特殊的 STOP 键值,来告诉模型在时刻 t 是否收集了足够的信息回答用户 Query
-
-
优点
- 该方法在不依赖于手工构造模板的情况下,在 WebQuestions 数据集上的效果超过了 SOTA 方法
- 该方法的框架和引入的 Stop、Query Update 机制让整个复杂问题的解析过程具备更好地解释性
-
-
-
Information Retrieval
-
搜索排序(IR)的知识图谱问答
-
过程
- 确定用户 Query 中的实体提及词(Entity Mention)
- 链接到 KG 中的主题实体(Topic Entity),并将与 Topic Entity 相关的子图(Subgraph)提取出来作为候选答案集合
- 分别从 Query 和候选答案中抽取特征
- 利用排序模型对 Query 和候选答案进行建模并预测
-
特点
- 方法不需大量人工定义特征或者模板,将复杂语义解析问题转化为大规模可学习问题
-
依据特征表示技术不同,IR 方法可以分为两类
-
基于特征工程的方法
-
论文
- Yao X, Van Durme B. Information extraction over structured data: Question answering with freebase[C]//Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). 2014: 956-966.
-
过程
-
- 对问句进行句法分析,并对其依存句法分析结果提取问题词(qword)、问题焦点词(qfocus)、主题词(qtopic)和中心动词(qverb)特征,将其转化为问句特征图(Question Graph)
-
- 利用 qtopic 在 KG 内提取 Subgraph,并基于此生成候选答案特征图
- 将问句中的特征与候选特征图中的特征进行组合,将关联度高的特征赋予较高的权重,该权重的学习直接通过分类器来学习。
-
-
不足
- 需要自行定义并抽取特征,而且问句特征和候选答案特征组合需要进行笛卡尔乘积,特征维度过大
- 该类方法难以处理复杂问题。为了解决这些问题,学术界利用表示学习方法,将问句和候选答案转换为同一语义空间的向量,将 KBQA 看成是问句与候选答案的表示向量进行匹配计算过程
-
-
基于表示学习的方法
-
Embedding-Based方法
-
论文
- Bordes A, Chopra S, Weston J. Question answering with subgraph embeddings[J]. arXiv preprint arXiv:1406.3676, 2014.
-
过程
-
- 将问句以及 KG 中的候选答案实体映射到同一语义空间,其中候选答案实体利用三种向量进行表示
- 答案实体本身
- 答案实体与主实体关系路径
- 与答案实体相关 Subgraph
-
- 利用 Triplet loss1 对模型进行训练
-
-
不足
- 模型针对问句编码采用词袋模型,没有考虑词序对句子的影响,以及不同类型属性的不同特性
-
-
CNN and Attention方法
-
Multi-Column Convolutional Neural Networks (MCCNNs)
-
论文
- Dong L, Wei F, Zhou M, et al. Question answering over freebase with multi-column convolutional neural networks[C]//Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). 2015: 260-269.
-
原理
- 利用CNN分别对问句和答案类型(Answer Type)、答案实体关系路径(Answer Path)和答案实体一跳内的 Subgraph (Answer Context) 进行编码,以获取不同的语义表示
-
优点
- 该方法验证了考虑词序信息、问句与答案的关系对 KBQA 效果的提升是有效的
-
缺点
- 对于不同答案,将问句都转化成一个固定长度的向量,这种方法不能很好地表达问句的信息
-
-
Cross-Attention based Neural Network
-
论文
- Hao Y, Zhang Y, Liu K, et al. An end-to-end model for question answering over knowledge base with cross-attention combining global knowledge[C]//Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). 2017: 221-231.
-
过程
-
1.将候选答案分成四个维度
- 答案实体
- 答案实体关系路径
- 答案类型
- 答案上下文
- 利用注意力机制动态学习不同答案维度与问句中词的关联程度,让问句对不同答案维度根据注意力机制学习权重
-
-
优点
- 有效地提升问答效果
-
不足
- 对于复杂问题的处理能力依然不足
-
-
Attentive RNN with Similarity Matrix based CNN
-
论文
- Qu Y, Liu J, Kang L, et al. Question answering over freebase via attentive RNN with similarity matrix based CNN[J]. arXiv preprint arXiv:1804.03317, 2018, 38.
-
原理
- 利用带有注意力机制的 RNN 来对问句和属性间关系进行建模,并采用 CNN 模型捕捉问句与属性间的字面匹配信息
-
优点
- 该论文验证了字面匹配信息能带来效果上的提升
-
不足
- 对于复杂问题的处理能力依然不足
-
-
Memory Network方法
-
特点
-
良好的可扩展性以及对于强弱监督的适用性
-
论文
- Sukhbaatar S, Szlam A, Weston J, et al. Weakly supervised memory networks[J]. CoRR, abs/1503.08895, 2.
-
-
-
新算法1
-
论文
-
Bordes A, Usunier N, Chopra S, et al. Large-scale simple question answering with memory networks[J]. arXiv preprint arXiv:1506.02075, 2015.
-
过程
- 将 KG 中的知识存储到 MemNN 中
- 采样正负例 Query 和正负例的 Answer,两两组合形成多任务,利用 Triplet loss 训练 MemNN
-
-
原理
- 将其结合 KG 中三元组信息来解决 KBQA 中简单问题(单跳),同时构建了 SimpleQuestions 数据集
-
模型工作过程
- 通过输入模块(input module)将用户问题、三元组信息转化为分布式表示加入到 Memory 中
- 利用泛化模块(Generalization module)将新的三元组信息(来自 Reverb)加入到 Memory 中
-
L 层的 Factual Memory Network
-
论文
- Jain S. Question answering over knowledge base using factual memory networks[C]//Proceedings of the NAACL Student Research Workshop. 2016: 109-115.
-
原理
- 模拟多跳推理过程,每层以线性链接,并以上一层输出作为本层输入
-
优点
- 在编码阶段,将问句和 KG 三元组信息分别进行映射
-
不足
- 没有考虑两者间的交互关系
-
Bidirectional Attentive Memory Network (BAMnet) 模型
-
论文
- Chen Y, Wu L, Zaki M J. Bidirectional attentive memory networks for question answering over knowledge bases[J]. arXiv preprint arXiv:1903.02188, 2019.
-
主要通过 Attention 机制来捕捉 Query 与 KG 信息间的两两相关性,并以此利用相关性增强 Query 的表示,希望能结合到更多的 KG 信息,提升针对复杂问题的处理能力,该方法包含 4 个模块
-
1. 输入模块采用 Bi-LSTM 对问句进行编码
-
2. 记忆模块(Memory module)针对 KG 信息(答案类型h_t 、答案实体关系路径h_p 、答案上下文h_c )进行编码存入 Memory network 中
-
3. 推理模块分为一个两层的 Bidirectional Attention Network 去编码问句和 KG 中信息间的相互关系和泛化模块(Generalization module)
- 过程
- 1. 根据 KG 信息关注问句中的重要部分;Importance module 利用注意力机制计算 KG 中信息与问句的相关程度(比如简单问题对于答案上下文关注度就会降低) - 2. 在 Enhancing module 中利用 Importance module 计算的相关度权重矩阵,重新更新问句表示和 Memory 中的 Key 值表示,完成第二层 Attention Network - 3. 在泛化模块中选取 Memory 中对与问句表示有价值 value,利用 GRU 进行编码,链接到原有问句表示
-
4. 回复模块(Answer module)通过计算问句信息和 Enhancing module 中更新过的 KG 信息来得到最后答案
-
-
优点
- 在不依赖于人工构建模板的情况下,依靠 Attention 机制和 MemNN,效果比大多数 IR 方法更好
-
不足
-
并没有引用了 PE 机制的论文效果好
- 论文
- `Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Advances in neural information processing systems. 2017: 5998-6008.`
-
-
-
-
-
优点
- 仅仅利用 CNN、Attention 等机制对 Query 与 KG 信息进行简单地端到端模型尽管可以避免大量构造人工模板
-
缺点
- 并不能有效解决复杂问题,且部分方法的可解释性不强
-
-
-
-
-
网友评论