美文网首页
Python--利用结巴进行分词

Python--利用结巴进行分词

作者: Chris的算法小记 | 来源:发表于2018-02-02 17:27 被阅读41次

    本文首发于我的博客:gongyanli.com

    前言:本文是一些关于jieba分词的简单操作,把文档进行分词后,然后利用wordcloud输出。

    一、安装

    pip install jieba
    

    二、准备数据

    依然是维基百科文章保存为txt,地址https://zh.wikipedia.org/wiki/%E6%AC%A7%E9%98%B3%E4%BF%AE
    下载文件simsun.ttf,如果没有这个文件,生成的词云将会是乱码,不是中文。因为wordcloud默认字体是英文,不包含中文编码。

    三、分词

    `import jieba  # 导入jieba
    import matplotlib.pyplot as plt
    from wordcloud import WordCloud
    
    filename = "ouyangxiu.txt"
    with open(filename) as f:
        mytext = f.read()
        mytext=" ".join(jieba.cut(mytext))  # 进行jieba分词
        wordcloud=WordCloud(font_path="simsun.ttf").generate(mytext) 
        # 中文分词后再生成词云,同时注意指定输出字体simsun.ttf
        plt.imshow(wordcloud,interpolation='bilinear')
        plt.axis("off")
        plt.show()
    # print(mytext)
    

    `

    四、出图

    image

    相关文章

      网友评论

          本文标题:Python--利用结巴进行分词

          本文链接:https://www.haomeiwen.com/subject/snmezxtx.html