美文网首页
2019斯坦福CS224N笔记(10)Question Answ

2019斯坦福CS224N笔记(10)Question Answ

作者: Viterbi | 来源:发表于2022-10-23 10:54 被阅读0次

【2019斯坦福CS224N笔记】(10)Question Answering

csdn:https://blog.csdn.net/abcgkj

github:https://github.com/aimi-cn/AILearners


[toc] 问答系统(简称QA),是近几年比较火的NLP应用之一,常见的应用有:问答机器人、智能客服等。本节内容将主要讲解了斯坦福所提出的Stanford Attentive Reader模型,和简要分析一下其他相关模型。

问答系统主要分为两部分:

  • 找到可能包含答案的文档(使用传统的信息检索技术)
  • 在可能的文档中找到我们所需要的答案(通常称为阅读理解)

本文将重点介绍第二点,即"阅读理解"。

Stanford Attentive Reader

Stanford Attentive Reader是斯坦福在2016年的ACL会议上的《A Thorough Examination of the CNN/Daily Mail Reading Comprehension Task》发布的一个机器阅读理解模型。数据集使用的CNN和Daily Mail。

模型介绍

1.word embedding

将passage§和question(Q)中的所有单词都通过一个word embedding矩阵嵌入,用d维的词向量来表示,得到:

2.encoding

对于问题Q:把每个单词嵌入后的向量放入双向LSTM中编码,将这些向量拼接起来,得到隐藏层的最终状态q。

对于短文P:和Q一样,把每个单词嵌入后的向量放入双向LSTM中编码(但不用拼接),得到向量p_i。

3.attention

因为我们需要在文章中找到答案,因此使用得到的q向量,以解决答案在哪里使用注意力。根据文章中词语p与问题中词语q之间的相关程度,计算出一个概率分布,如下图所示

其中q为问题Q的最终状态,W为要学习的矩阵,p’_i是P的每个单词经过双向LSTM的向量表达。

得到注意力得分后,进行加权:

4.预测:上下文加权得到向量o之后,模型就能够基于此输出最有可能的答案:

5.使用负对数似然函数作为训练的目标函数。

Stanford Attentive Reader++

与上一版本的改变:

1.之前是只使用问题Q的最后一个状态的拼接,而现在我们使用LSTM中的所有状态。(其实在很多NLP任务中,这样做都是非常好的)

2.第二个改变是,这里使用3层的Bi-LSTM网络

3.词向量的改变:不仅是只使用简单的词向量,又加入了位置和命名实体识别的标记(用one-hot编码)

4.加入问题和文章的相似度计算。

BiDAF

BiDAF(全称Bi-Directional Attention Flow for Machine Comprehension),是2017年Seo等人在ICIR上提出的模型。其核心思想是:由以往的单向注意力机制转为双向注意力机制。即注意力双向流动——从上下文到问题,从问题到上下文

更多注意力机制

  • Additive Attention

  • Bilinear Attention

更多模型

2016年、2017年和2018年的大部分工作都采用了越来越复杂的架构,注意力的多样性也越来越多——通常可以获得很好的任务收益。

除了本节课介绍的一些模型外,还有一些非常好的模型。比如:给予Bert的一些模型在很多数据集上表现非常好。但是不得不说,即使问答系统前景如此广阔,但其背后的技术仍没有达到十分成熟的地步,仍有很大的进步空间。

本文使用 文章同步助手 同步

相关文章

网友评论

      本文标题:2019斯坦福CS224N笔记(10)Question Answ

      本文链接:https://www.haomeiwen.com/subject/wdgvortx.html