美文网首页
1-3 IK分词器

1-3 IK分词器

作者: Finlay_Li | 来源:发表于2020-07-29 16:59 被阅读0次

概念

在搜索时,把索引库中的数据进行分词,再进行匹配的操作、es默认的中文分词器是将每个字都看成一个词,这显然不符合要求,所以我们需要安装IK分词器

安装

  1. https://github.com/medcl/elasticsearch-analysis-ik
    要下载对应es的版本,否则会闪退
    可以自己下载源码使用 maven 编译,当然如果怕麻烦可以直接下载编译好的
    image.png
  1. 解压放到plugins/ik下。重启ES

测试

IK拥有两种分词算法:ik_smart 和 ik_max_word

ik_smart 最少切分

image.png

ik_max_word 最细粒度切分

image.png

自定义词典,使得 融掉 成为一个词。

创建配置

image.png

添加到配置中

image.png

重启es 和 kibana 测试

image.png

相关文章

网友评论

      本文标题:1-3 IK分词器

      本文链接:https://www.haomeiwen.com/subject/kmshrktx.html