1. 程式人生 > >使用Java呼叫中科院分詞NLPIR/ICTCLAS

使用Java呼叫中科院分詞NLPIR/ICTCLAS

2.       下載NLPIR-ICTCLAS2013-Win-32-JNIu0416)地址:http://ictclas.nlpir.org/newsdownloads?DocId=354(我電腦是64win7,用的是32JDK32Eclipse,如果是64JDK要下載64位的)

3.       下載後將兩個壓縮包解壓

4.       建立Java工程

5.       20141230101836_ICTCLAS2015\ICTCLAS2015\bin\ICTCLAS2015中的NLPIR.dll檔案複製到Java工程的跟目錄

6.       20130416090224_Win-32bit-JNI-lib\Win-32bit-JNI-lib\

中的NLPIR_JNI.dll檔案複製到Java工程的跟目錄

7.       再將20141230101836_ICTCLAS2015\ICTCLAS2015Data資料夾複製到Java工程的跟目錄

8.       20130416090224_Win-32bit-JNI-lib\Win-32bit-JNI-lib中的kevin資料夾TestNLPIR.java複製到Java工程src目錄下

9.       工程搭建完成,如圖

執行TestNLPIR.java,如果按上面的步驟配置可能會報錯了,檢視日誌發現Configure.xml檔案沒有找到(日誌檔案在工程的跟目錄 yyyyMMdd.log,第一次執行需要按F5

才能看見)

修改TestNLPIR.java程式碼31行,改成String argu = “”;即可,如果工程是UFT-8編碼,需要把所有的GB2312改成UFT-8,否者會亂碼

 

修改後的程式碼

修改後執行程式控制臺輸出:分詞結果為:張華平/nr推出/v/ude1 NLPIR/x分詞/v系統/n/wd/d/qICTCLAS2013/x/wd新增/v新詞/n識別/vn/wn關鍵詞/n提取/v/wn/ag/ag分詞/v功能/n/wj _

但最後一個字元還是亂碼了,不知道為什麼

錯誤及解決

1.Cannot Open Configure file

../../\Data\Configure.xml

找不到Configure.xml

檔案,修改TestNLPIR.java31

2. Not valid license or your license expired! Please feelfree to contact [email protected]!

下載最新的NLPIR/ICTCLAS,用新的Data資料夾覆蓋舊的

相關推薦

使用Java呼叫中科院NLPIR/ICTCLAS

2.       下載NLPIR-ICTCLAS2013-Win-32-JNI(u0416)地址:http://ictclas.nlpir.org/newsdownloads?DocId=354

中科院NLPIR,demo執行初始化失敗問題記錄

NLPIR最新版本下載demo執行時發現出現如下問題: 第一: Exception in thread "main" java.lang.UnsatisfiedLinkError: Unable to load library 'E://java//JNI//JnaTest

中科院系統(NLPIR)常見錯誤處理JAVA

沒有熟悉這個分詞器用起來真的讓人很崩潰,遇到bug都不知道怎麼辦,但是如果熟悉了用起來還是蠻得心應手的,是一個很不錯的分詞工具哦!強烈推薦! 下載地址:http://ictclas.nlpir.org/downloads,下載最新的NLPIR/ICTCLAS2

java中科院配置(ICTCLAS) 轉

之前零零散散用過幾次,配置好了就沒管過。後來再用的時候就忘了怎麼配置,又找了很多資料(太麻煩了)。現總結一下當作筆記: 首先,下載中科院分詞專案。 github網址:https://github.com/NLPIR-team/NLPIR/tree/master/NLPIR%20SDK/NLPIR-ICTCL

改進的中科院系統NLPIR程式碼(加入使用者詞典,去停用,檔案讀寫)+情感分析字典包+工具包+論文包

NLPIR分詞,加入使用者詞典,去停用詞,檔案讀寫等 原始碼下載地址 優化的分詞系統程式碼 原始碼下載地址 NLPIR分詞系統 優化的分詞系統程式碼 以下是核心程式碼 完整程式碼可以直接執行分詞,點我跳轉 public cl

Hanlp中使用純JAVA實現CRF

Hanlp中使用純JAVA實現CRF分詞 與基於隱馬爾可夫模型的最短路徑分詞、N-最短路徑分詞相比,基於條件隨機場(CRF)的分詞對未登入詞有更好的支援。本文(HanLP)使用純Java實現CRF模型的讀取與維特比後向解碼,內部特徵函式採用 雙陣列Trie樹(DoubleArrayTrie)儲存,得到了

基於java版jieba實現的tfidf關鍵詞提取

基於java版jieba分詞實現的tfidf關鍵詞提取 文章目錄 基於java版jieba分詞實現的tfidf關鍵詞提取 為了改善我的 個性化新聞推薦系統的基於內容相似度的推薦演算法效果,我嘗試找尋關鍵詞提取效果可能優於本來使用的ansj的tfi

Spring框架中呼叫HanLP的方法

事情是這樣的,最近實驗室在搞一個Java Web的專案,用的Spring MVC的框架。專案組有很多沒做過Spring的學弟學妹,為了提高效率,我讓大家自己先拋開Spring來寫自己負責的模組,我來把各個模組在Spring裡整合。 專案裡有一個文字分析的模組是一

java 中文文字

java 中文文字分詞 本文使用 classifier4J 以及 IKAnalyzer2012_u6 實現中文分詞。可以增加自定義詞庫,詞庫儲存為 “exdict.dic” 檔案,一個詞一行。 // MyTokenizer.java 檔案 import java.io.Buff

使用Python+jieba和java+庖丁在Spark叢集上進行中文統計

寫在前邊的話:        本篇部落格也是在做豆瓣電影資料的分析過程中,需要對影評資訊和劇情摘要資訊進行分析而寫的一篇部落格        以前學習hadoop時,感覺做中文分詞也沒那麼麻煩,但是到了

10大Java開源中文器的使用方法和效果對比

原文地址:http://my.oschina.net/apdplat/blog/412921 本文的目標有兩個: 1、學會使用10大Java開源中文分詞器 2、對比分析10 大Java開源中文分詞器的分詞效果 本文給出了10大Java開源中文分詞的使用方法以及分詞

【NLP】11大Java開源中文器的使用方法和效果對比

本文的目標有兩個: 1、學會使用11大Java開源中文分詞器 2、對比分析11大Java開源中文分詞器的分詞效果 本文給出了11大Java開源中文分詞的使用方法以及分詞結果對比程式碼,至於效果哪個好,那要用的人結合自己的應用場景自己來判斷。 11大Java開源中文分詞器,不同的分詞器

中科院ICTCLAS5.0_JNI 使用方法

1.簡介 中國科學院計算技術研究所在多年研究基礎上,耗時一年研製出了基於多層隱碼模型的漢語詞法分析系統 ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),該系統的功能有

Python 中文 NLPIR 快速搭建

前述 本篇文章寫完需要半個小時,閱讀需要十分鐘,讀完後,你將學會在Python中使用NLPIR,以及關於使用它的一些有用的基礎知識 NLPIR 是中科院的漢語分詞系統,在Python中使用也比較廣泛,而且曾多次奪得漢語分詞比賽的冠軍,並且其可以在多個語言上都

【文字分類】最強中文系統ICTCLAS

ICTCLAS中文詞法分析是中文資訊處理的基礎與關鍵。中國科學院計算技術研究所在多年研究工作積累的基礎上,研製了漢語詞法分析系統ICTCLAS(Institute of Computing Technology,Chinese Lexical Analysis System

中科院中文java呼叫詳解(ICTCLAS2013版)

在中文分詞的時候,現在流行的有很多,下面主要介紹中科院中文分詞,現在中科院地址是http://ictclas.nlpir.org/ 首先也是開始呼叫這個介面,呼叫成功後覺得應該共享出來,讓更多人去使用。 然後主要是介紹一下怎麼用使用漢語分詞系統怎麼去呼叫。必須先在上面那個網

中科院NLPIR中文java

摘要:為解決中文搜尋的問題,最開始使用PHP版開源的SCWS,但是處理人名和地名時,會出現截斷人名地名出現錯誤。開始使用NLPIR分詞,在分詞準確性上效果要比SCWS好。本文介紹如何在windows系統下編譯JAVA ,生成可以執行的jar檔案。 NLPIR的下載地

java實現NLPIRICTCLAS

        package com.code; import java.io.UnsupportedEncodingException; import utils.SystemParas; import com.sun.jna.Library; import com.sun.jna.Native;

使用Java呼叫Stanford CoreNLP 進行中文

Stanford CoreNLP 進行中文分詞 中文分詞的工具有很多,使用斯坦福的CoreNLP進行分詞的教程網上也不少,本篇部落格是記錄自己在使用Stanford CoreNLP進行中文分詞的學習筆記。 1. 工具準備 1.1 下載NLP相關包: 網址: https://stanfordn

NLPIR(ICTCLAS2015)工具Java開發簡介

分詞往往是自然語言處理的第一步。在分詞的基礎上,我們可以進行關鍵字的提取、搜尋、糾錯等應用。在理論上,分詞可以採用的方法有很多,最經典的辦法莫過於HMM模型、CRF及其它語言模型如Bigram、Trigram等。NLPIR(又名:ICTCLAS2015)是由中科院張華平博士研發的,基於HMM模型免費