美文网首页
新词发现

新词发现

作者: 云彩修建站站长 | 来源:发表于2019-10-08 20:33 被阅读0次

前言

先列出来几个概念:

  1. 信息熵:变量的混乱程度,公式\sum_{i=1}^{n}p_ilog(p_i),熵越大表示混乱程度越大。
  2. 互信息:表示两个变量X与Y相关性的强弱,越大表示X和Y的相关性越强。
  3. 点互信息:点互信息表示两个元素相关性的强弱,越大表示两个元素相关性越强,点互信息公式PMI(x:y) = log(\frac{p(x,y)}{p(x)p(y)}) 点互信息加权就是互信息。

正文

对于一句话,“你回家了嘛”,会中文的我们知道“回家”是一个词汇,假设我们在不懂中文的情况下,如何从中识别出“回家”这个词呢。
直观上思考,如果要使“回家”单独成词,那么需要包含如下特征:

  1. 回家 这个词在大规模语料中出现的频次高。
  2. 回|家 必须比较牢固(凝合度够大)。不能是两个没有关系的词,比如“你的”这个词出现的频率很高,但是并不牢固。
  3. 回家 这个词的左边和右边可以有大批组合词(自由度够大)。比如我爱俄罗斯;我不爱吃俄罗斯的食物。

对于上面这些直观的想法,我们把它转换成数学语言:

  1. 统计在大规模语料中,“回家”这个词出现的频率。
  2. 统计“回家”这个词的点互信息衡量聚合度,这个聚合度要足够大。回家的点互信息公式:PMI(回:家) = log(\frac{p(回家)}{p(回)p(家)})
  3. 统计“回家”左边和右边较小的熵衡量自由度,这个自由度要足够大。比如回家左边跟着一堆的字,这些字的熵是a;右边跟着一堆的字,这些字的熵是b,取min(a,b)作为结果。

得到了上面三个值:频率,聚合度,自由度。接下来要做的就是根据设定的阈值来进行筛选了。

下面这个是参考别人的阈值选择:

具体阈值选择,不同语料会有较大差异。
网络blog上介绍的经验公式(30M文本,字母 n 表示 n-gram 即相关新词包含的字数):
词频>200, 凝固度>10^{(n-1)},自由度>1.5
词频>30, 凝固度>20^{(n-1)}也能发现很多低频的词汇

相关文章

  • 新词发现

    参考资料 主要参考了以下两篇文章:互联网时代的社会语言学:基于SNS的文本数据挖掘 基于信息熵和互信息的新词识别 ...

  • 新词发现

    介绍 网络领域的新词发现是一个非常重要的nlp课题。在处理文本对象时,非常关键的问题在于“切词”这个环节,几乎所有...

  • 新词发现

    1.基于互信息和左右信息熵的短语提取识别 2.反作弊基于左右信息熵和互信息的新词挖掘 3.基于spark的新词发现...

  • 新词发现

    发现新词 目的:解决未登陆此; 定义:不加入任何先验素材,直接从大规模的语料库中,自动发现可能成词的语言片段; 影...

  • 新词发现

    一、新词发现 中文分词有98%的错误来自"未登录词"。这里的"未登录词",包括各类专有名词、缩写词、流行词汇等等。...

  • 新词发现

    前言 先列出来几个概念: 信息熵:变量的混乱程度,公式,熵越大表示混乱程度越大。 互信息:表示两个变量X与Y相关性...

  • 新词发现

    算法: 依据词的共有特征 成词的标准之一:内部凝固程度 什么是凝固程度?比如说一个词“电影院”,如果“电影”和...

  • 新词发现

    python3实现互信息和左右熵的新词发现 python简单实现新词发现 用python实现新词发现程序——基于凝...

  • 新词发现

    词之所以成词,其外部需要有比较丰富的上文和下文,其内部要足够稳固一般不可再分。 针对新词成词的特点, 在实际应用中...

  • 新词发现规则

    本文主要参考文献1, 主要目的是记录和简化核心规则,并根据实践提出了一些实践中的方案。 新词发现规则 新词发现主要...

网友评论

      本文标题:新词发现

      本文链接:https://www.haomeiwen.com/subject/bfybpctx.html