【Elasticsearch】install ik analysis plugin
ik是大名鼎鼎的中文分词器插件,支持ik_smart
(最粗粒度拆分)和ik_max_word
(最细粒度拆分)两种分词器,支持扩展分词字典&停止词字典,支持远程扩展字典&停止词字典,支持热更新分词字典(由于Elasticsearch是通过docker-compose安装的,所以考虑通过解压zip文件安装)
Environment & Tools
centos7, Elasticsearch 6.6.0, ik v6.6.0,
Guide
add volumes mapping
download package & restart
进入本地插件目录:cd esplugins/
创建ik目录:mkdir ik
进入ik目录:cd ik/
PS: 从ik release选择与es对应的版本,右键获取下载链接(我这里使用v6.6.0)
下载ik插件:wget https://github.com/medcl/elasticsearch-analysis-ik/archive/v6.6.0.tar.gz
上面下载错了source code,再来:wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.6.0/elasticsearch-analysis-ik-6.6.0.zip
解压:unzip elasticsearch-analysis-ik-6.6.0.zip
回到docker-compose.yml文件所在目录,启动es集群:docker-compose up
访问9200端口验证es启动成功:http://{ip}:9200
访问5601端口验证kibana启动成功:http://{ip}:5601
run some test
在kibana中运行:1
2
3
4
5GET index/_analyze
{
"text": "中华人民共和国国歌",
"tokenizer": "ik_smart"
}
1 | GET index/_analyze |
more:Quick Example