ElasticSearch搜索引擎安裝配置中文分詞器IK插件
阿新 • • 發佈:2018-09-28
art linux系統 nal smart 分享 內容 分詞 search dcl
一、IK簡介
ElasticSearch(以下簡稱ES)默認的分詞器是標準分詞器Standard,如果直接使用在處理中文內容的搜索時,中文詞語被分成了一個一個的漢字,因此引入中文分詞器IK就能解決這個問題,同時用戶可以配置自己的擴展字典、遠程擴展字典等。
二、IK安裝
1、首先前往GitHub下載安裝包(註意版本與ES對應,若無對應版本,解壓後修改pom.xml文件中<elasticsearch.version>,建議查看修改一下版本號),上傳至/home/目錄,並解壓至當前目錄,如下圖所示:
1 vim /home/elasticsearch-analysis-ik-6.3.2/pom.xml
2、然後切換至解壓目錄進行編譯(若無安裝Maven工具,首先安裝Maven才能編譯,具體參考Linux安裝Maven):
1 [root@izwz9eu3mkqq1njlkrfhc8z elasticsearch-analysis-ik-6.3.2]# mvn package
編譯之後,會在當前目錄下的target/releases找到對應的zip包,如下圖所示:
3、然後在/usr/java/elasticsearch/elasticsearch-6.3.2/plugins/目錄下創建analysis-ik,再將上述中的zip包解壓至該目錄,如下圖所示:
1 [root@izwz9eu3mkqq1njlkrfhc8z elasticsearch-analysis-ik-6.3.2]# unzip /home/elasticsearch-analysis-ik-6.3.2/target/releases/elasticsearch-analysis-ik-6.3.2.zip -d /usr/java/elasticsearch/elasticsearch-6.3.2/plugins/analysis-ik/
4、切換至非root用戶,重新啟動ES即可,並且可在Head插件中查看插件信息,如下圖所示:
三、IK測試
IK分詞器的兩種分詞模式:
ik_max_word: 會將文本做最細粒度的拆分,
ik_smart: 會做最粗粒度的拆分。
這裏使用_analyze api對中文段落進行分詞,如下圖所示:
至此是關於介紹在Linux系統中ElasticSearch搜索引擎安裝配置中文分詞器IK插件,後續會介紹ElasticSearch拼音插件pinyin。
如有疏漏錯誤之處,還請不吝賜教!
ElasticSearch搜索引擎安裝配置中文分詞器IK插件