【Elasticsearch】install ik analysis plugin

ik是大名鼎鼎的中文分词器插件,支持ik_smart(最粗粒度拆分)和ik_max_word(最细粒度拆分)两种分词器,支持扩展分词字典&停止词字典,支持远程扩展字典&停止词字典,支持热更新分词字典(由于Elasticsearch是通过docker-compose安装的,所以考虑通过解压zip文件安装)

Environment & Tools

centos7, Elasticsearch 6.6.0, ik v6.6.0,

Guide

add volumes mapping

2019.02.19 - 01 - 01

download package & restart

进入本地插件目录:cd esplugins/

创建ik目录:mkdir ik

进入ik目录:cd ik/

PS: 从ik release选择与es对应的版本,右键获取下载链接(我这里使用v6.6.0

下载ik插件:wget https://github.com/medcl/elasticsearch-analysis-ik/archive/v6.6.0.tar.gz

2019.02.19 - 01 - 02

上面下载错了source code,再来:wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.6.0/elasticsearch-analysis-ik-6.6.0.zip

2019.02.19 - 01 - 03

解压:unzip elasticsearch-analysis-ik-6.6.0.zip

回到docker-compose.yml文件所在目录,启动es集群:docker-compose up

访问9200端口验证es启动成功:http://{ip}:9200

访问5601端口验证kibana启动成功:http://{ip}:5601

run some test

在kibana中运行:

1
2
3
4
5
GET index/_analyze
{
"text": "中华人民共和国国歌",
"tokenizer": "ik_smart"
}

2019.02.19 - 01 - 04

1
2
3
4
5
GET index/_analyze
{
"text": "中华人民共和国国歌",
"tokenizer": "ik_max_word"
}

2019.02.19 - 01 - 05

more:Quick Example

2019.02.19 - 01 - 06

Reference

IK Analysis for Elasticsearch

docker 中安裝elasticsearch和ik安裝配置