美文网首页
中文分词

中文分词

作者: Luwnto | 来源:发表于2016-07-07 13:11 被阅读163次

mysql全文索引

mysql4.0以上支持全文检索,但是存储引擎类型必须为MYISAM

mysql5.6以上支持INODB引擎类型的全文检索

CREATE TABLE articles (
    id INT UNSIGNED AUTO_INCREMENT NOT NULL PRIMARY KEY,
    title VARCHAR(200),
    body TEXT,
    FULLTEXT (title,body)
) ENGINE=MyISAM  DEFAULT CHARSET=utf8;

查询语句:

SELECT * FROM articles
WHERE MATCH (title,body) AGAINST ('well hellow');

全文检索的原理是会把文本以空格标点符号分割成关键字,建立一个索引表,查询索引表
获取数据的绑定信息,取得原数据
基于这个原理,英文就非常好做全文索引了,但是中文呢

默认是自然检索,会自动计算权重,默认过滤超过50%的词汇出现率

改为布尔全文检索,会出现所有结果:

SELECT * FROM articles WHERE MATCH (title,body)
 AGAINST ('apple banana' IN BOOLEAN MODE);

修改最小匹配量:

可以在mysql配置文件my.ini 更改最小字符长度,方法是在my.ini 增加一行 
比如:ft_min_word_len = 2,改完后重启mysql即可。

一些运算符

+表示AND,即必须包含。- 表示NOT,即不包含

SELECT * FROM articles WHERE MATCH (title,body)
AGAINST ('+apple -banana' IN BOOLEAN MODE);

apple和banana之间是空格,空格表示OR,即至少包含apple、banana中的一个

SELECT * FROM articles WHERE MATCH (title,body)
AGAINST ('apple banana' IN BOOLEAN MODE);

返回同时包含apple和banana或者同时包含apple和orange的记录。但是同时包含apple和banana的记录的权重高于同时包含apple和orange的记录

SELECT * FROM articles WHERE MATCH (title,body)
AGAINST ('+apple +(>banana <orange)' IN BOOLEAN MODE);

中文分词

我们可以基于mysql全文索引的原理模拟出中文索引:

  1. 通过一系列的算法把中文文章分割成提取重要词语以空格隔开(基于词典)
  2. 然后建立一个全文索引表,一般以index_开头,专门存处理好的中文词,并把ID和原数据关联
  3. 查询的时候全文检索索引表,然后取得要查询的ID,通过ID命中源数据

相关文章

  • “结巴”中文分词:做最好的 Python中文分词组件

    “结巴”中文分词:做最好的 Python中文分词组件 1 jieba中文分词简介: 中文分词是中文NLP的第一步,...

  • 第3章 中文分词技术

    本章要点: 中文分词的概念与分类 常用分词的技术介绍 开源中文分词工具-Jieba简介 实战分词之高频词提取 中文...

  • 配置Hanlp自然语言处理进阶

    中文分词 中文分词中有众多分词工具,如结巴、hanlp、盘古分词器、庖丁解牛分词等;其中庖丁解牛分词仅仅支持jav...

  • 分词系统评测

    1.11款开放中文分词引擎大比拼 2.常用的开源中文分词工具 3.11大Java开源中文分词器的使用方法和分词效果...

  • python笔记 | 舆情分析如何做?

    中文分词原理及分词工具介绍 中文分词(Chinese Word Segmentation) 指的是将一个汉字序列切...

  • 中文分词工具及中文语料资源

    关键词: 中文分词;分词;自然语言处理;中文语料 最近要做中文自然语言处理相关任务,牵涉到使用中文分词工具和相关算...

  • 结巴中文分词的用法

    jieba “结巴”中文分词:做最好的 Python 中文分词组件"Jieba" (Chinese for "to...

  • python 结巴分词

    jieba “结巴”中文分词:做最好的 Python 中文分词组件“Jieba” (Chinese for “to...

  • 基于Trie 树实现简单的中文分词

    中文分词简介 中文分词是中文自然语言处理的基础,中文分词的正确率如何直接影响后续的词性标注(也有些词性标注算法不需...

  • Python中文分词及词频统计

    中文分词 中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组。英文使用空格...

网友评论

      本文标题:中文分词

      本文链接:https://www.haomeiwen.com/subject/irzudttx.html