当前位置:   article > 正文

ik分词器 分词原理_ElasticSearch 集成Ik分词器

ik分词器 分词原理_ElasticSearch 集成Ik分词器

c6aa0e9887cd820ee2f2911c11e7ffbe.png

1 、 由于 ElasticSearch 默认的分词器不支持中文分词,所以我们需要集成IK 分词器。

2、 集成步骤

https://github.com/medcl/elasticsearch-analysis-ik/releases

1)从github上下载 对应es 版本的IK分词器zip包。

a482b85e77993ad716bf3766fc4e9640.png

2)解压并重命名为IK 将整个文件夹上传到es 中的 plugins 目录中。重启es即可。

2ef767e2ca94860cd835b069bcd62de5.png
从启动信息中可以看出已经加载IK 分词器插件。

838e16de564f12fc8418e88e570e4046.png

3) 测试分词器 是否生效。

069213aa645d2e643bf7cbe0184e871e.png
---使用 es 自带的 standard 分词器。把“百度” 分为了两个词。

8cf346fbc09d67f9d956e00f0057957f.png
使用 ik分词器,把百度分为一个词

3)自定义分词。

在 elasticsearch/plugins/ik/config 目录中新建 一个 dic 的文件。

  1. vi my_word.dic ,添加自定义分词,保存退出,重启es。

310a1e4ea3cc9cc65079bfb344cf2493.png
添加自定义分词

80635ea9305cbb06c56a0e9a83ff3101.png
验证自定义分词。

完事。

本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号