# IK中文分词插件(analysis-ik)
IK分词插件的分词器包括ik_smart 模式和ik_max_word 模式,两者区别如下:
- ik_max_word:将文本按照最细粒度进行拆分。例如会将`中华人民共和国国歌`拆分为`中华人民共和国,中华人民,中华,华人,人民共和国,人民,共和国,共和,国,国歌`,适合术语查询。
- ik_smart:将文本按照粗粒度进行拆分。例如会将`中华人民共和国国歌`拆分为`中华人民共和国,国歌`,适合短语查询。
网上关于两种分词器使用的最佳实践是:
索引时用ik_max_word,在搜索时用ik_smart。
即:索引时最大化的将文章内容分词,搜索时更精确的搜索到想要的结果。
### 配置文件
```xml
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer 扩展配置</comment>
<!--用户可以在这里配置自己的扩展字典 -->
<entry key="ext_dict">custom/mydict.dic;custom/single_word_low_freq.dic</entry>
<!--用户可以在这里配置自己的扩展停止词字典-->
<entry key="ext_stopwords">custom/ext_stopword.dic</entry>
<!--用户可以在这里配置远程扩展字典 -->
<entry key="remote_ext_dict">location</entry>
<!--用户可以在这里配置远程扩展停止词字典-->
<entry key="remote_ext_stopwords">http://xxx.com/xxx.dic</entry>
</properties>
```
### 热更新 IK 分词使用方法
目前该插件支持热更新 IK 分词,通过上文在 IK 配置文件中提到的如下配置
```xml
<!--用户可以在这里配置远程扩展字典 -->
<entry key="remote_ext_dict">location</entry>
<!--用户可以在这里配置远程扩展停止词字典-->
<entry key="remote_ext_stopwords">location</entry>
```
### 其他分词插件
analysis-pinyin Elasticsearch 拼音分析插件
analysis-phonetic Elasticsearch 音标分析插件,集成了词元过滤器。
[更多插件](https://elasticsearch.cn/download/#seg-11)
[analysis-ik 开源地址](https://github.com/medcl/elasticsearch-analysis-ik)
IK分词插件