美文网首页
Mmseg算法

Mmseg算法

作者: 後鲎 | 来源:发表于2019-03-01 12:30 被阅读0次

    1. Mmseg算法简介

    Mmseg是一种基于字符串匹配(亦称基于词典)的中文分词算法。传统的基于词典的分词方案虽然可以进行分词操作,但是无法解决分完词之后的存在的歧义问题,比如,“南京市长江大桥”是应该分为“南京/市长/江大桥”还是“南京市/长江/大桥”?基于此,后面提出了正向最大匹配策略,但是这种策略并没有完全解决分词存在歧义的情况,比如刚刚的例子:“南京市长江大桥”,若是基于最大匹配策略,则会被分为“南京市长/江/大桥”,可以明显的看出这种分词结果并不符合我们的要求,因而最后提出一种基于最大匹配策略的新的分词算法:mmseg。

    2.Mmseg算法主要思想

    Mmseg分词算法的主要思想是每次从一个需要分词的句子里,按照从左到右的顺序,识别多种不同的3个词组合。然后根据mmseg的4条消岐规则选取最优分词组合。 然后选择备选词组合中的第1个词,作为1次迭代的分词结果;剩余的词(即这个句子中除了第一个已经分出的词的剩余部分)继续进行下一轮的分词运算。采用这种办法的好处是,为传统的前向最大匹配算法加入了上下文信息,解决了其每次选词只考虑词本身,而忽视上下文相关词的问题。

    3.四条消歧规则

    ① 规则1,最大匹配。

      假设词语能够找到一个简单的词匹配,则觉得该词即为该词语的分词类似。词语“南京市”,通过词典分词。例如以下分词结果:
    

    1.南/京/市
    2.南京/市
    3.南京市
    1.C1_C2_C3
    2.C1C2_C3
    3.C1C2C3
    可见“南京市”有全然相应的词,则觉得这个词语即是一个词。规则总结例如以下:
    选取C1C2C3模式

    ② 规则2,最大平均词汇长度。

    假设词语分词不满足规则1,则使用规则2:类似词语“南京市长江大桥”,分词结果可能例如以下
    
    1. 南京市_长江大桥 —— 平均词长度为7/2=3.5
    2. 南京市长江大桥 —— 平均词长度为7/3=2.3
      归纳该规则为则选取第一种分词方式,可见这个规则是兼容第一个规则的。
    3. C1C2_C3C4C5C6
    4. C1C2_C3C4_C5C6

    ③ 规则3,最小词长方差。

       假设规则2不成立,则进行规则3。这个规则和我们平时用语有关,一般我们在组织语句时,为了朗朗上口,往往使用的词汇组成长度比较一致。
    比方,“幸福_快乐”,“人之初_性本善”,“君子一言,驷马难追”。 类似,词语“研究生命科学”
    
    1. 研究生科学 ——词长方差0.82
    2. 研究生命科学 ——词长方差0
      上述平均词长都是2,可是词长方差不一致。依据规则3。选择另外一种分词方式,这样的规则能够归纳为
    3. C1C2_C3C4_C5C6
    4. _C1C2C3_C4_C5C6

    ④ 规则4。最大单字自由度。

       所谓单字自由度,能够简单的理解为这个字作为单独出现的语境次数。比方“的”常常作为定语修饰字,常常出如今各种语境。可是“的”偶尔也会和其
    字词组成成语。 比方“目的”等,这样的组合会影响改字的自由度。有关自由度和凝固度。回头在《新词发现》中讨论。这样的推断主要是使用在单字存在
    的场景。在规则三不成立的情况下,进行规则四的推断。
    
    1. 化妆/和(10)/服装
    2. 化妆/和服/装(3)
      总结该规则为:平均词长和词长方差是一致的,可是单字的自由度不同。选择第一种分词方式
    3. C1C2_C3_C4C5
    4. C1C2_C3C4_C5
      Compare the freedom(C3) to freedom(C5)

    4.核心代码

    '''
    class Chunk:
      def __init__(self, words, chrs):
          self.words = words
          self.lens_list = map(lambda x: len(x), words)
          # 规则一:Maximum matching
          self.length = sum(self.lens_list)
          #规则二:Largest average word length
          self.mean = float(self.length) / len(words)
          #规则三:Smallest variance of word lengths
          self.var = sum(map(lambda x: (x - self.mean) ** 2, self.lens_list)) / len(self.words)
          #规则四:Largest sum of degree of morphemic freedom of one-character words
          self.entropy = sum([log(float(chrs[x])) for x in words if len(x) == 1 and x in chrs])
    
      def __lt__(self, other):
        return (self.length, self.mean, -self.var, self.entropy) < \
               (other.length, other.mean, -other.var, other.entropy)
    
     def get_chunks(self, sentence):
        # 获取chunk,每个chunk中最多三个词
        ret = []
        def iter_chunk(sentence, num, tmp_seg_words):
            # 获取当前句子中最开头的那个字,以及由该字所组成的词,但是该词需要同时满足俩个条件:
            # ①出现在预加载的词典中,②出现在当前句子中
            match_words = self.get_start_words(sentence)
            #因为每个chunk中最多只有三个词,所以当num由最先初始化的3降为0时,进入if中,然后运用mmseg的4条消岐规则进行评分,
            # 最后将每种的分词的评分加入到一个list中去,以便在最后的时候进行比较,从而选取最优分词结果。
            if (not match_words or num == 0) and tmp_seg_words:
                ret.append(Chunk(tmp_seg_words, self.chrs_dic))
            else:
            #否则,遍历match_words,从中依次取词,在原句中去除该词进行递归查找,然后num-1以及将当前word加入到tmp_seg_words中。
                for word in match_words:
                    iter_chunk(sentence[len(word):], num - 1, tmp_seg_words + [word])
        iter_chunk(sentence, num=3, tmp_seg_words=[])
        return ret
    
    def cws(self, sentence):
      while sentence:
          chunks = self.get_chunks(sentence)#接收返回的chunks
          #将之前每种的分词评分运用①~④的消歧规则的进行依次比较,选取出当前最优解,
          #然后在最优解中选取第一个词作为已分好的词,剩下的词重新当成参数传入到get_chunks方法中
          word = max(chunks).words[0]
          sentence = sentence[len(word):]
          yield word
    if __name__ == "__main__":
        mmseg = MMSeg()#预先加载字典
        print(list(mmseg.cws("南京市长江大桥上的汽车,")))
    '''
    

    5.Mmseg分词流程图

    mmseg.png

    综上:我们可以根据4条消歧的规则很容易的找出分词结果(10)为最佳分词。

    相关文章

      网友评论

          本文标题:Mmseg算法

          本文链接:https://www.haomeiwen.com/subject/hzpruqtx.html