1. 程式人生 > >ElasticSearch搜索引擎安裝配置中文分詞器IK插件

ElasticSearch搜索引擎安裝配置中文分詞器IK插件

art linux系統 nal smart 分享 內容 分詞 search dcl

一、IK簡介

ElasticSearch(以下簡稱ES)默認的分詞器是標準分詞器Standard,如果直接使用在處理中文內容的搜索時,中文詞語被分成了一個一個的漢字,因此引入中文分詞器IK就能解決這個問題,同時用戶可以配置自己的擴展字典、遠程擴展字典等。

二、IK安裝

1、首先前往GitHub下載安裝包(註意版本與ES對應,若無對應版本,解壓後修改pom.xml文件中<elasticsearch.version>,建議查看修改一下版本號),上傳至/home/目錄,並解壓至當前目錄,如下圖所示:

技術分享圖片

1 vim /home/elasticsearch-analysis-ik-6.3
.2/pom.xml

技術分享圖片

2、然後切換至解壓目錄進行編譯(若無安裝Maven工具,首先安裝Maven才能編譯,具體參考Linux安裝Maven):

1 [root@izwz9eu3mkqq1njlkrfhc8z elasticsearch-analysis-ik-6.3.2]# mvn package

編譯之後,會在當前目錄下的target/releases找到對應的zip包,如下圖所示:

技術分享圖片

3、然後在/usr/java/elasticsearch/elasticsearch-6.3.2/plugins/目錄下創建analysis-ik,再將上述中的zip包解壓至該目錄,如下圖所示:

1 [root@izwz9eu3mkqq1njlkrfhc8z elasticsearch-analysis-ik-6.3
.2]# unzip /home/elasticsearch-analysis-ik-6.3.2/target/releases/elasticsearch-analysis-ik-6.3.2.zip -d /usr/java/elasticsearch/elasticsearch-6.3.2/plugins/analysis-ik/

技術分享圖片 技術分享圖片

4、切換至非root用戶,重新啟動ES即可,並且可在Head插件中查看插件信息,如下圖所示:

技術分享圖片

三、IK測試

IK分詞器的兩種分詞模式:

ik_max_word: 會將文本做最細粒度的拆分,

ik_smart: 會做最粗粒度的拆分。

這裏使用_analyze api對中文段落進行分詞,如下圖所示:

技術分享圖片

技術分享圖片

至此是關於介紹在Linux系統中ElasticSearch搜索引擎安裝配置中文分詞器IK插件,後續會介紹ElasticSearch拼音插件pinyin。

如有疏漏錯誤之處,還請不吝賜教!

ElasticSearch搜索引擎安裝配置中文分詞器IK插件