美文网首页
2017 · EMNLP · Supervised Learni

2017 · EMNLP · Supervised Learni

作者: HelloShane | 来源:发表于2018-09-24 11:57 被阅读0次

2017 · EMNLP · Supervised Learning of Universal Sentence Representations from Natural Language Inference Data

想法来源:从自然语言推理的encoder中得到sentence embedding的表示。

价值:证明了NLI 迁移的可行性

方法:从NLI数据集上面训练的encoder模型,迁移到其他任务。

缺点

详细方案

  1. 基本的NLI模型结构


    -c400
  2. 使用7种主流的encoder方法


    -c150
  3. 在主流的几个任务中进行测试,其中包括多分类,二分类,相似度评测(Spearman/pearson matric),caption image retirval.

数据集
全部都在FB的Github SentEval

实验

  • 实验首先证明了哪个encoder表现较好


    -c400
  • 证明了NLI数据预训练的可行性


    -c
  • 研究了embedding size 的影响

-c500
  • 最后比较了在Image Caption retrieval上的结果
image

相关文章

网友评论

      本文标题:2017 · EMNLP · Supervised Learni

      本文链接:https://www.haomeiwen.com/subject/bnbcoftx.html