美文网首页NLP&NLUNLP
268G+训练好的word2vec模型(中文词向量)

268G+训练好的word2vec模型(中文词向量)

作者: ___dada____ | 来源:发表于2018-05-20 11:13 被阅读7578次

      从网上了解到,很多人缺少大语料训练的word2vec模型,在此分享下使用268G+语料训练好的word2vec模型。

    训练语料

    image.png

    模型参数

    • window=5
    • min_count=10
    • size=128
    • hs=1
    • negative=0
    • iter=5
    • ps:其它参数见gensim库,执行代码为:gensim.models.Word2Vec(sentence, window=5, min_count=10, size=128, workers=4,hs=1, negative=0, iter=5)

    其它相关

    1. 分词词典使用了130w+词典。分词代码:jieba.lcut(sentence),默认使用了HMM识别新词;
    2. 剔除了所有非中文字符;
    3. 最终得到的词典大小为6115353;
    4. 模型格式有两种bin和model,使用方式:
      a. bin模式:model = gensim.models.KeyedVectors.load_word2vec_format(model_path, binary=True)
      b. model模式:model = gensim.models.Word2Vec.load(model_path)
    5. 文件压缩后大小与未压缩相近,因此未压缩。

    下载链接
    链接:https://pan.baidu.com/s/1ckkH_eT-WS4SN73Iq9Q_5A 密码:9aza

    相关文章

      网友评论

        本文标题:268G+训练好的word2vec模型(中文词向量)

        本文链接:https://www.haomeiwen.com/subject/vwgzdftx.html