美文网首页
SimHash文档去重

SimHash文档去重

作者: 本熊本 | 来源:发表于2018-03-18 11:27 被阅读0次

1. 首先SimHash的算法生成图如下图所示:

Image.jpg

生成步骤如下:

  1. 对于每篇文章,选择分词作为该篇文章的特征,获取去掉噪音的词做为文档特征,为每个词赋予一个权重,该权重可以使用TFIDF来对应
  2. 根据机器的存储以及性能,可以选择使用哪种hash算法,计算出每个词的hash值,可以是32位的也可以是64位的
  3. 对于上述hash值的每一位乘以相应的权重,得到新的hash序列,最后将每个词的每一位hash序列相加求和
  4. 对于求和后的hash序列,如果该位>0,最终的simhash的该位=1,否则simhash=0

simhash可以用来衡量两篇文档的相似程度,如果两篇文档比较相似,那么他们的simhash值也相似,这种hash算法与MD5算法不同:

对于MD5算法,稍微对某个字符串修改一点,那么得出的MD5戳就会发生很大的变化。

2.如何通过两篇文档的simHash来检查两篇文档是否相似呢?使用海明距离。

海明距离:两个hash串异或之后1的个数,也就是两个simhash串不同的位数。根据经验,一般海明距离<=3或者4的时候,两篇文档相似。

如何高效计算某个二进制串中为1的个数呢?

int getHammingDistance(BigInteger hash1, BigInteger hash2){

    BigInteger data = hash1.xor(hash2);

    int tot = 0;

    while (data != 0) {

             tot += 1;

             data = data&(data-1);

    }

    return tot;

}

时间复杂度为o(n), 我们知道一个二进制数减掉1之后和该二进制数去&操作,相当于把最右边的一位1变成了0,因此能执行多少次这样的操作就有多少个1存在.

3. 工程实现的问题:

在工程实现中,往往数据量较大, 如每篇文章要和500万的文章进行比较,假如hash值位数是64位,比较一次的时间复杂度是o(64)

对于每篇文章都要比较500万次,时间消耗也就较大。

因此第一步需要缩小比较范围,以空间换时间的方式,可以借鉴HashMap的存储和查找方式,key代表1/4的hash值,value使用链表的方式存储多个文章的simhash:

1.将simhash值拆分成4个16位的hash
2.分别拿着4个hash去map中是否有该值,如果有的话,追加到key对应的链表中,没有的话新建key对应的链表

在查找的时候,可以分别拿着4个16为的hash值,去查找map,然后依次和value链表中的多个simhash序列比较即可.具体可参照下面的参考链接.

优缺点:

simhash用于比较大文本,比如500字以上效果比较好,距离小于3的基本都是相似,误判率也比较低。

但是如果处理的是微博信息,最多也就140个字,使用simhash的效果并不那么理想。

参考:

https://yanyiwu.com/work/2014/01/30/simhash-shi-xian-xiang-jie.html

http://www.lanceyan.com/tech/arch/simhash_hamming_distance_similarity2-html.html

相关文章

  • SimHash文档去重

    1. 首先SimHash的算法生成图如下图所示: 生成步骤如下: 对于每篇文章,选择分词作为该篇文章的特征,获取去...

  • simHash 文档指纹去重算法

    1.simHash算法过程: 参考论文来源 《Similarity estimation techniques f...

  • 文本去重

    simhash 分词,hash,加权,降维,拿到simhash;计算simhash的海明距离试用长文本去重,效率高...

  • simhash算法原理及实现

    simhash是google用来处理海量文本去重的算法。 google出品,你懂的。 simhash最牛逼的一点就...

  • 文档排重之SimHash算法

    不同网站间相互转载内容的情况非常常见,即使同一网站,不同的URL地址也可能对应相同内容,只是以不同的形式显示出来(...

  • simHash海量文本去重

    simHash是google提出的用于计算海量文本相似度的算法:(1) 分词 => word(2) 单词权重 tf...

  • 基于hash的文档判重——simhash

    本文环境: python3.5 ubuntu 16.04 第三方库: jieba 文件寄于github: http...

  • 海量文档的去重

    思路: 文本的向量化表示1.1 simhash在线去重 抽屉原理1.2 word2vec1.3 bagofword...

  • simhash与Google的网页去重

    Simhash 传统IR领域内文本相似度比较所采用的经典方法是文本相似度的向量夹角余弦,其主要思想是根据一个文章中...

  • 基于simhash的文本去重原理

    互联网网页存在大量的内容重复的网页, 文本,无论对于搜索引擎,爬虫的网页去重和过滤、新闻小说等内容网站的内容反盗版...

网友评论

      本文标题:SimHash文档去重

      本文链接:https://www.haomeiwen.com/subject/qgheqftx.html