word2vec实践:gensim实现

作者: liuchungui | 来源:发表于2017-09-11 10:31 被阅读0次

    上周,有缘接触到word2vec,了解了它的强大,这篇文章就写写它吧!

    实现word2vec的方式有很多,我所知道的就有手搓、使用tensorflow和gensim。本篇文章是以gensim实现,代码很简单。如果想看tensorflow实现的参考Vector Representations of Words

    想直接跑代码查看效果,可点击Word2VecDemo下载。

    整篇文章分成四部分:

    • 第一步:获得数据,建立语料库

    • 第二步:分词

    • 第三步:训练

    • 第四步:查看效果

    第一步:获得数据,建立语料库

    本打算下载维基百科中文语料库来跑一下,但由于时间原因,还没试。当前,使用的是我从一个法律网站爬下来30万条数据。爬数据的框架,是使用scrapy

    第二步:分词

    在之前,我一个同学盼哥跟我说过,他跑过tensorflow中word2vec的例子,需要注意的是英文不需要分词,而中文需要分词。当时没明白过来,但真正看到示例代码的时候,才知道真这样。

    然后,我就在github中搜到了jieba,看到9k+ star,分词就用它了。

    之后,就从数据库中取出数据,使用jieba分词,存储到./data文件夹中。

    第三步:训练

    gensim训练特别简单,就是读取./data文件下分好词的文本,然后将其使用空格分割,返回给models.gensim训练:

    
    #coding: utf-8
    
    #中文版处理的word2vec
    
    from gensim import models
    
    # 引入日志配置
    
    import logging
    
    logging.basicConfig(format='%(asctime)s : %(levelname)s : %(message)s', level=logging.INFO)
    
    file_path = "./data/case.txt"
    
    class MySentences(object):
    
    def __init__(self, file_path):
    
    self.file_path = file_path
    
    def __iter__(self):
    
    for line in open(file_path):
    
    # split当只有一个的时候,返回单个字符串,多个则返回数组
    
    words = line.split(" ")
    
    result_word = []
    
    for word in words:
    
    if word and word != '\n':
    
    result_word.append(word)
    
    yield result_word
    
    sentences = MySentences(file_path)
    
    model = models.Word2Vec(sentences, workers=20, min_count=5, size=200)
    
    # 保存模型
    
    model.save("./cache/zh_word2vec")
    
    

    需要注意的是:

    1、models.Word2Vec中的参数:

    • sentences: 可以是个二维数组,例如:[['今天', '是', '星期天'], ['明天', '是', '星期一']],但一般语料库都比较大,所以都是使用yield方式。

    • workers: 训练数据的线程数

    • min_count: 当某个词出现的平率少于这个数,就会被忽视

    • size: 存储向量的维度,维度越大存储的信息越多,越准确

    2、保存训练好的模型到./cache/zh_word2vec

    
    model.save("./cache/zh_word2vec")
    
    

    后面查看效果的时候,会用到。

    第四步,查看效果

    代码实现流程很简单,就是使用models.Word2Vec.load加载训练好的模型,然后使用model模块下的API进行操作。

    代码如下:

    
    #coding: utf-8
    
    #中文版处理的word2vec使用
    
    from gensim import models
    
    # 引入日志配置
    
    import logging
    
    logging.basicConfig(format='%(asctime)s : %(levelname)s : %(message)s', level=logging.INFO)
    
    model = models.Word2Vec.load("./cache/zh_word2vec")
    
    print '\n女人 + 丈夫 - 男人:'
    
    result = model.most_similar(positive=['女人', '丈夫'], negative=['男人'], topn=1)
    
    print result[0][0], result[0][1]
    
    print '\n抢夺和抢劫相近程度:'
    
    print model.similarity('抢夺', '抢劫')
    
    print "\n抢劫的近义词"
    
    result = model.most_similar(['抢劫'])
    
    for value in result:
    
    print value[0], value[1]
    
    print '\n公司法的近义词:'
    
    result = model.most_similar(['公司法'])
    
    for value in result:
    
    print value[0], value[1]
    
    print '\n公司法和协议组成的近义词:'
    
    result = model.most_similar(['公司法', '协议'])
    
    for value in result:
    
    print value[0], value[1]
    
    print '\n委托书的近义词:'
    
    result = model.most_similar(['委托书'])
    
    for value in result:
    
    print value[0], value[1]
    
    print '\n投资的近义词:'
    
    result = model.most_similar(['投资'])
    
    for value in result:
    
    print value[0], value[1]
    
    print "\n找出投资、抢劫、强奸、盗窃中,哪个词不是一组的:"
    
    result = model.doesnt_match(['投资', '抢劫', '强奸', '盗窃'])
    
    print result
    
    

    结果为:

    
    女人 + 丈夫 - 男人:
    
    妻子 0.638504564762
    
    抢夺和抢劫相近程度:
    
    0.80240327463
    
    抢劫的近义词
    
    抢夺 0.802403330803
    
    盗窃 0.800097942352
    
    作案 0.797169923782
    
    抢劫犯罪 0.74809718132
    
    敲诈勒索 0.745306968689
    
    诈骗 0.706851243973
    
    行窃 0.706330060959
    
    强奸 0.685930252075
    
    共谋 0.683236837387
    
    飞车 0.653475642204
    
    公司法的近义词:
    
    继承法 0.759847998619
    
    行政处罚法 0.738676190376
    
    土地管理法 0.73749756813
    
    票据法 0.735802054405
    
    物权法 0.734579086304
    
    产品质量法 0.702591955662
    
    保险法 0.695441961288
    
    著作权法 0.683708071709
    
    消防法 0.682392597198
    
    劳动法 0.670343637466
    
    公司法和协议组成的近义词:
    
    协议书 0.666539371014
    
    消防法 0.601478874683
    
    拍卖法 0.584682762623
    
    合同 0.582781195641
    
    继承法 0.573017239571
    
    公司章程 0.572464048862
    
    票据法 0.560360312462
    
    补充协议 0.551261663437
    
    物权法 0.549430251122
    
    土地管理法 0.548958778381
    
    委托书的近义词:
    
    授权书 0.733257114887
    
    书面材料 0.667756915092
    
    声明书 0.649828374386
    
    声明 0.635425388813
    
    承诺函 0.623859405518
    
    承诺书 0.614668488503
    
    担保书 0.598217010498
    
    确认函 0.597471117973
    
    便条 0.589580059052
    
    函件 0.586620807648
    
    投资的近义词:
    
    出资 0.632706165314
    
    入股 0.615086615086
    
    投入 0.525379896164
    
    利润分配 0.503669142723
    
    股票 0.50173163414
    
    资金 0.495302915573
    
    回报 0.493470430374
    
    开发 0.492733627558
    
    增资 0.49268245697
    
    顾问 0.490810781717
    
    找出投资、抢劫、强奸、盗窃中,哪个词不是一组的:
    
    投资
    
    

    可以看出来,整个模型已经有点效果出来了。若是,整个语料库再扩大十倍,应该会更准确很多。

    总结

    gensim实现的word2vec,使用特别简单,效果也很不错。不过,后期打算深入了解原理,然后使用tensorflow的方式进行训练,看效果能否更好。

    本来,打算再写一篇doc2vec的,不过,因为至今未看到很大的效果,所以留待以后吧。

    参考

    Simple word2vec tutorial

    Quick Example

    相关文章

      网友评论

        本文标题:word2vec实践:gensim实现

        本文链接:https://www.haomeiwen.com/subject/gibxsxtx.html