概念
在搜索时,把索引库中的数据进行分词,再进行匹配的操作、es默认的中文分词器是将每个字都看成一个词,这显然不符合要求,所以我们需要安装IK分词器
安装
-
https://github.com/medcl/elasticsearch-analysis-ik
要下载对应es的版本,否则会闪退
可以自己下载源码使用 maven 编译,当然如果怕麻烦可以直接下载编译好的
image.png
- 解压放到plugins/ik下。重启ES
测试
IK拥有两种分词算法:ik_smart 和 ik_max_word
ik_smart 最少切分

ik_max_word 最细粒度切分

自定义词典,使得 融掉 成为一个词。
创建配置

添加到配置中

重启es 和 kibana 测试

网友评论