美文网首页
2018 · NAACL · BP · Deep Context

2018 · NAACL · BP · Deep Context

作者: HelloShane | 来源:发表于2018-09-24 12:05 被阅读0次

    2018 · NAACL · BP · Deep Contextualized Word Representations

    问题:以往的词向量表示的语义信息并不丰富,没有挖掘到深层的语义和语法信息。

    价值:通过丰富词向量表示,在downstream中提升各种表现性能

    方法:非常简单的想法,利用多层的RNN表示网络,表示出深层的上下文依赖的词向量,之前是只使用embedding,这次直接把RNN一起搬过来了。

    缺点:参数太多,计算量很大。

    详细方案

    • 有监督的downstream NLP task
    -c350

    \vec{h^{LM}_{k,j}}表示正向第j层rnn/cnn的第k个单词表示, x_k^{LM}是经过char rnn/char cnn的word embedding。然后经过整合降维:

    -c350
    其中 -c350

    trick : 模型最后加入了一个正则项,防止s变大 \lambda \left \| w\right \|^2_2

    数据集
    1. SQUAD
    2. Stanford Natural Language Inference (SNLI) corpus
    3. Reuters RCV1 corpus (NER)
    4. Stanford Sentiment Tree- bank (SST-5)

    实验
    首先是证明ELMo的有效性,在分类,推理,SQUAD上产生的结果提升

    -c400

    模型内部对比,集中接入方式和\lambda的取值对结果的影响

    -c350

    不清楚有什么用


    -c350

    看了一个邻近词结果显示,理解的层次更深了。


    -c400

    后面两个实验,意义不大


    -c500

    相关文章

      网友评论

          本文标题:2018 · NAACL · BP · Deep Context

          本文链接:https://www.haomeiwen.com/subject/gficoftx.html