美文网首页
FromWord Embeddings To Document

FromWord Embeddings To Document

作者: Pluto_wl | 来源:发表于2020-03-14 19:59 被阅读0次

文本相似度是自然语言处理研究热点之一,论文提出了一种新的衡量文本相似度的方法,Word Mover’s Distance (WMD)。此方法利用两个文本的词向量的距离来作为相似度,具体方法将在下文探讨。

提出原因

常用来表达文本特征的方式有BOW和TF-IDF,但这些特征不能很好的表达特征,当两个向量正交或近似正交时,文本相似度会特别低(these features are often not suitable for document distances due to their frequent near-orthogonality.) 。还有一个缺点是不能捕捉单词之间的距离。比如下面两句话表达同样的意思,然而除了停用词外,没有相同的词。
a: Obama speaksto the media in Illinois。
b: The President greets the press in Chicago.

当前还有一些可以通过学习低维隐藏特征向量的方式来更合理的表达文本,比如LDA, LSA等,然而与BOW相比效果相差无几。

优缺点

  • 优点
  1. WMD没有超参数并可以直接使用和理解
  2. 具有很好的解释性
  3. 具有很高的准确率
  • 缺点
  1. 词袋模型,没有保留语序信息
  2. 不能很好的处理词向量的OOV(Out of vocabulary)问题
  3. 时间复杂度高

Word Mover’s Distance算法

  • nBOW representation
    假设文本使用nBOW(normalized bag-of-words)向量d表示,d\in R^n。 假设使用c_i 表示单词i出现的频率,那么d_i=\frac{c_i}{\sum^n_{j=1} c_j},n表示共有多少个词。显然这是一个稀疏矩阵,因为词表中的词很难大部分都在一个文本中出现。
  • Word travel cost
    假设现在有训练好的词向量X^{d*n},第i个单词的词向量使用x_i表示。常用来表示单词距离的方式有欧式距离,有单词i,j,那么c(i,j)=\|x_i-x_j\|_2表示单词ij的距离。
  • Document distance
    使用d{d}'分别表示两个文档的nBOW矩阵,d 中的每个词i都可以全部或部分地转移到d′
    来自论文

因此,定义一个稀疏的转移矩阵T\in R^{n \times n}表示d转移到{d}'的代价,T_{i,j}表示d_i转移到{d}'_j的代价(Let T\in R^{n \times n}be a (sparse) flow matrix where T_{ij}>0denotes how much of word i in d
travels to word j in {d}'),那么从d转移到{d}'的代价为\sum_{i,j}T_{ij} c_{i,j}。同时有如下限制:
\sum_{j=1}^n\textbf{T}_{ij}=d_{i.}\sum_{i=1}^n\textbf{T}_{ij}=d'_{.j}

  • Transportation problem
    将上述优化问题转化为线性规划问题
    \min_{\textbf{T} \ge 0}\sum_{i,j=1}^n\textbf{T}_{ij}c(i,j)
    s.t.
    \sum_{j=1}^n\textbf{T}_{ij}=d_{i} \qquad \forall i \in {1,...,n}
    \sum_{i=1}^n\textbf{T}_{ij}=d'_{j} \qquad \forall j \in {1,...,n}

论文中提到,上述公式属于earth mover’s distance metric (EMD)的一个特殊形式,所以没有给出如何求解。

剪枝

利用论文4.1节 的Prefetch and prune 部分可以知道剪枝可以减少95%的计算。

结果

与其他baseline相比,WMD在各自任务上都有比较明显的提升。


来自论文 来自论文

流程如下

以下内容来自[1]

  • 利用word2vec将词编码成词向量
  • 去掉停用词
  • 计算出每个词在文本中所占权重,一般用词频来表示
  • 对于每个词,找到另一条文本中的词,确定移动多少到这个词上。如果两个词语义比较相近,可以全部移动或移动多一些。如果语义差异较大,可以少移动或者不移动。用词向量距离与移动的多少相乘就是两个词的转移代价
  • 保证全局的转移代价加和是最小的
  • 文本1的词需要全部移出,文本2的词需要全部移入

参考文献

  1. https://supernan1994.github.io/nlp/wmd1.html (推荐)
  2. http://ir.dlut.edu.cn/news/detail/362
  3. FromWord Embeddings To Document Distances
  4. https://zhuanlan.zhihu.com/p/32242768 (python实现WMD)

相关文章

网友评论

      本文标题:FromWord Embeddings To Document

      本文链接:https://www.haomeiwen.com/subject/vniwshtx.html