美文网首页other
语义相似计算资料

语义相似计算资料

作者: 风驰电掣一瓜牛 | 来源:发表于2017-08-11 00:29 被阅读0次

文章

LDA

DSSM

SimNet

CLSM

CNN

评测比赛

工具

PPT

论文

Convolutional Neural Networks for Sentence Classification (EMNLP 2014)

n*k表示句子(k是词向量维度) -> 多channel卷积层 -> max-over-time pooling -> 全连接

Neural Machine Translation by Jointly Learning to Align and Translate (arxiv 2014, ICLR 2015)

最早的一篇,应用在翻译上,动机是告诉decoder现在翻译哪一部分,因为大体上两个句子语义上有对应关系 soft alignment?

采用biRNN

Encoding Source Language with Convolutional Neural Network for Machine Translation (ACL 2015)

tagCNN & inCNN

A Hierarchical Neural Autoencoder for Paragraphs and Documents (ACL 2015) note!!

LSTM auto-encoder + Attention

分层结构,捕捉句子组成成分或结构

中间层有句子状态表示,句子向量?

A Neural Attention Model for Abstractive Sentence Summarization (EMNLP 2015)
Abstractive Sentence Summarization with Attentive Recurrent Neural Networks (NAACL 2016)

姊妹篇, Facebook团队

两篇paper的模型框架都是seq2seq+attention,最大的区别在于选择encoder和decoder的模型,第一篇的模型偏容易一些,第二篇用了rnn来做。论文解读

Teaching Machines to Read and Comprehend (NIPS 2015)

Google DeepMind团队

有监督训练,两个attention模型: Attentive Reader 和 Impatient Reader,后者每个token都和query构成一组输入,相当于反复读取,逐渐理解文章

Skip-Thought Vectors(NIPS 2015) note!!

无监督,句子encoder

通过1万多本书中连续的句子来训练

借鉴了word2vec中skip-gram模型,通过一句话来预测这句话的上一句和下一句

采用了GRU-RNN作为encoder和decoder,encoder部分的最后一个词的hidden state作为decoder的输入来生成词。这里用的是最简单的网络结构,并没有考虑复杂的多层网络、双向网络等提升效果。decoder部分也只是一个考虑了encoder last hidden state的语言模型,并无其他特殊之处,只是有两个decoder,是一个one maps two的情况,但计算方法一样。论文解读

Deep Learning for Semantic Similarity(实验报告 2015)

有监督,衡量两个句子的相似性

实验数据:SemEval-2015 Task 2, RNN效果最好

Learning Natural Language Inference using Bidirectional LSTM model and Inner-Attention

Context Aware Document Embedding (arxiv 2017)

CNN+GRU STS任务上取得与doc2vec相似的效果,但是更有效率,不需要大量外部语料?一种加强的idf权重,可以捕捉文档子主题层的关键词

A Structured Self-attentive Sentence Embedding (ICLR 2017) note!!

双向LSTM+Attention

三个实验:预测年龄,情感分析,文本蕴含

提出了一种句子表示学习的”internal attention”的方式,并且采用了惩罚项来保证从不同方面来学习attention矩阵,使每个维度的attention向量的相关性降低,并采用了可视化方式来说明模型效果, 可以应用到各种序列化学习的问题当中。论文解读

[Efficient Summarization with Read-Again and Copy Mechanism] (arxiv 2016, ICLR 2017)

生成式摘要任务 论文解读

两个问题:

  • 一是在encoder的过程中在计算每一个词的向量表示或者隐层状态时仅仅考虑了该词之前的一些词,导致了次优化
  • 二是UNK的问题(就是不在词表范围的词)

两个改进:

  • 首先提出一个read-again机制,就是在encoder计算每一个词的表示之前先阅读一遍输入序列,该想法的出发点也符合人的大脑机制,在阅读一篇文章时,要读完一遍才能去确认文中哪些词是重点。
  • 采用copy机制来处理OOV问题,同时可以使用非常小的词库,提高了解码的效率。

Learning Natural Language Inference using Bidirectional LSTM model and Inner-Attention (arxiv 2016)

有监督,识别文本蕴含,biLSTM average pooling, Inner-Attention
论文解读

相关文章

  • 语义相似计算资料

    文章 Sentence Embedding 干货 | NIPS 2015 Deep Learning Sympos...

  • 计算句子相似度

    计算句子相似度,①常用方法有基于语义和词序相似度计算方法,②基于关系向量模型基于语义和词序的句子相似度计算方法简介...

  • 语义相似度

    一、语义相似度的简介 在很多情况下,直接计算词语之间的相似度非常的困哪,一般情况下,先计算词语之间的距离,再转换...

  • 词义相似度计算

    语义计算索引作业一 词义相似度计算 实现2种词汇相关度计算方法,基于词典与基于语料各一种基于Mturk-771进行...

  • 语义计算

    1.语义计算:语音、形态、语法、语义、语用。通常会需要NLP其他领域技术,包括语法分析等。 2.为何面向自然语言的...

  • 利用HanLP计算中文词语语义相似度

    HanLP官方GitHub地址 HanLP 在java项目中配置HanLP 推荐使用Maven方法 在poem.x...

  • 利用HanLP计算中文词语语义相似度

    HanLP官方GitHub地址 HanLP 在java项目中配置HanLP 推荐使用Maven方法 在poem.x...

  • gensim使用指南

    最近因为比赛的关系用到gensim很多,总结一下。 TF-IDF模型使用 模型生成与保存 模型恢复 语义相似度计算...

  • 语义相似度度量

    在比较两个文本语义是否相同的时候,通常的做法是 使用传统方法:one-hot word vector -> tf-...

  • 程序语言理论

    形式语义 形式语义是计算机程序和编程语言行为的正式规范。描述计算机程序的语义或“含义”的三种常用方法是指称语义,操...

网友评论

    本文标题:语义相似计算资料

    本文链接:https://www.haomeiwen.com/subject/jgwkrxtx.html