关键词: 中文分词;分词;自然语言处理;中文语料 最近要做中文自然语言处理相关任务,牵涉到使用中文分词工具和相关算...[作者空间]
在逐渐步入DT(DataTechnology)时代的今天,自然语义分析技术越发不可或缺。对于我们每天打交道的中文来...[作者空间]
分词模块jieba,说话结巴的jieba。它是python比较好用的分词模块, 支持中文简体,繁体分词,还支持自定...[作者空间]
1. 数据下载# wiki中文数据的下载地址是:https://dumps.wikimedia.org/zhwik...[作者空间]