美文网首页
中文分词4:Jieba DAG有向无环图分词

中文分词4:Jieba DAG有向无环图分词

作者: 京漂的小程序媛儿 | 来源:发表于2020-06-12 19:51 被阅读0次

jieba分词用到了DAG分词法。在此介绍其原理:

jieba分词流程图

第一步:分句

通过正则表达式,将文章内容切分,形成一个句子数组,这个比较好理解

第二步:构建DAG词图

下述程序其实是找以每个字为开头的成词位置,即构造出句子的有向无环图(DAG),就是一个字典。

构建DAG

对句子中的每个字进行分析,从该字右边一位开始,看sentence[k:i+1]这个词语是否在预设的字典中,这个字典保存了常用的词语(和词语的一部分,但权重为0)和其权重。如果有,并且如果字典中的这个词的权值不等于0,那么就将i放到tmplist里,然后i+=1,继续往右看一个字。如果没有这个词,那就停下来,然后移动k,让k=k+1,找下一个字的成词位置。

比如有这样一个句::'我从海淀区搬到了朝阳区'。一共11个字,通过上面的计算,得到一个字典:<class 'dict'>::{0: [0], 1: [1], 2: [2, 3, 4], 3: [3, 4], 4: [4], 5: [5, 6], 6: [6], 7: [7], 8: [8, 9, 10], 9: [9], 10: [10]}。这个字典就是DAG。字典的key代表每个字在字符串中的位置,比如,0代表'我',1代表'从',value为从字开始能在FREQ中的匹配到的词末尾位置所在的list,比如2对应[2,3,4],这个表示:'海'(2)/'海淀'(2-3)/'海淀区'(2-4),这三个字符串可以成为词语,我们就得到了所有可以成词的位置了。

第三步:计算全局概率Route ,基于词频最大切分组合

下述程序,对于句子中的每一个字,计算候选位置中,哪个成词概率最大。

动态规划查找最大概率路径。注意的是动态规划的方向是从后往前

动态规划查找最大概率路径

比如2:[2,3,4],分别对位置2/3/4进行计算,计算公式:log(词的概率) - 常数 + 下一个字的成词概率

词的概率计算:还是用之前保存了所有常用词的字典(也可以自己定义字典)。

下一个字的成词概率:上一个循环计算出来的,我们要从末尾开始计算,得到的结果作为下一个循环的参数,这样我们就找到了最大成词概率的切分位置。

为什么要加上下一个字的成词概率的呢:因为下一个词的成词概率高的话,我们做出的切分就越正确,越有可能切成两个正确的词语,而不是左边的词语概率高,而右边根本不是一个正确的词语。

运行结果

如上图,蓝色圈中的部分,括号右边代表了成词的位置,括号左边代表当前字到括号右边的字之间组成一个词的概率,比如2,看括号的内容,代表2-4的成词概率是-45,所以'海淀区'切成一个词。

第四步:切分

切分

从头开始,寻找每个位置对应的成词位置,取出来,跳到成词位置的下一个位置。循环。

这样,我们就能得到:0/1/2-4/5/6/7/8-10

具体为:我/从/海淀区/搬/到/了/朝阳区

相关文章

网友评论

      本文标题:中文分词4:Jieba DAG有向无环图分词

      本文链接:https://www.haomeiwen.com/subject/fhvntktx.html