1. 程式人生 > >lucene.NET詳細使用與優化詳解

lucene.NET詳細使用與優化詳解

lucene.NET詳細使用與優化詳解

1 lucene簡介

1.1 什麼是lucene

Lucene是一個全文搜尋框架,而不是應用產品。因此它並不像www.baidu.com或者google Desktop那麼拿來就能用,它只是提供了一種工具讓你能實現這些產品。

1.2 lucene能做什麼

要回答這個問題,先要了解lucene的本質。實際上lucene的功能很單一,說到底,就是你給它若干個字串,然後它為你提供一個全文搜尋服務,告訴你你要搜尋的關鍵詞出現在哪裡。知道了這個本質,你就可以發揮想象做任何符合這個條件的事情了。你可以把站內新聞都索引了,做個資料庫;你可以把一個數據庫表的若干個欄位索引起來

,那就不用再擔心因為“%like%”而鎖表了;你也可以寫個自己的搜尋引擎……

1.3 你該不該選擇lucene

下面給出一些測試資料,如果你覺得可以接受,那麼可以選擇。

測試一:250萬記錄,300M左右文字,生成索引380M左右,800執行緒下平均處理時間300ms

測試二:37000記錄,索引資料庫中的兩個varchar欄位,索引檔案2.6M800執行緒下平均處理時間1.5ms

2 lucene的工作方式

lucene提供的服務實際包含兩部分:一入一出。所謂入是寫入,即將你提供的源(本質是字串)寫入索引或者將其從索引中刪除;所謂出是讀出,即向用戶提供全文搜尋服務,讓使用者可以通過關鍵詞定位源。

2.1寫入流程

源字串首先經過analyzer處理,包括:分詞,分成一個個單詞;去除stopword(可選)。

將源中需要的資訊加入document.各個Field中,並把需要索引的Field索引起來,把需要儲存的Field儲存起來。

將索引寫入儲存器,儲存器可以是記憶體或磁碟。

2.2讀出流程

使用者提供搜尋關鍵詞,經過analyzer處理。

對處理後的關鍵詞搜尋索引找出對應的document

使用者根據需要從找到的document.提取需要的Field

3 一些需要知道的概念

lucene用到一些概念,瞭解它們的含義,有利於下面的講解。

3.1 analyzer

Analyzer是分析器,它的作用是把一個字串按某種規則劃分成一個個詞語,並去除其中的無效詞語,這裡說的無效詞語是指英文中的

“of” “the”,中文中的等詞語,這些詞語在文章中大量出現,但是本身不包含什麼關鍵資訊,去掉有利於縮小索引檔案、提高效率、提高命中率。

分詞的規則千變萬化,但目的只有一個:按語義劃分。這點在英文中比較容易實現,因為英文字身就是以單詞為單位的,已經用空格分開;而中文則必須以某種方法將連成一片的句子劃分成一個個詞語。具體劃分方法下面再詳細介紹,這裡只需瞭解分析器的概念即可。

3.2 document

使用者提供的源是一條條記錄,它們可以是文字檔案、字串或者資料庫表的一條記錄等等。一條記錄經過索引之後,就是以一個document.形式儲存在索引檔案中的。使用者進行搜尋,也是以document.表的形式返回。

3.3 field

一個document.以包含多個資訊域,例如一篇文章可以包含標題正文最後修改時間等資訊域,這些資訊域就是通過Fielddocument.儲存的。

Field有兩個屬性可選:儲存和索引。通過儲存屬性你可以控制是否對這個Field進行儲存;通過索引屬性你可以控制是否對該Field進行索引。這看起來似乎有些廢話,事實上對這兩個屬性的正確組合很重要,下面舉例說明:

還是以剛才的文章為例子,我們需要對標題和正文進行全文搜尋,所以我們要把索引屬性設定為真,同時我們希望能直接從搜尋結果中提取文章標題,所以我們把標題域的儲存屬性設定為真,但是由於正文域太大了,我們為了縮小索引檔案大小,將正文域的儲存屬性設定為假,當需要時再直接讀取檔案;我們只是希望能從搜尋解果中提取最後修改時間,不需要對它進行搜尋,所以我們把最後修改時間域的儲存屬性設定為真,索引屬性設定為假。上面的三個域涵蓋了兩個屬性的三種組合,還有一種全為假的沒有用到,事實上Field不允許你那麼設定,因為既不儲存又不索引的域是沒有意義的。

3.4 term

term是搜尋的最小單位,它表示文件的一個詞語,term由兩部分組成:它表示的詞語和這個詞語所出現的field

3.5 tocken

tockenterm的一次出現,它包含trem文字和相應的起止偏移,以及一個型別字串。一句話中可以出現多次相同的詞語,它們都用同一個term表示,但是用不同的tocken,每個tocken標記該詞語出現的地方。

3.6 segment

新增索引時並不是每個document.馬上新增到同一個索引檔案,它們首先被寫入到不同的小檔案,然後再合併成一個大索引檔案,這裡每個小檔案都是一個segment

4 lucene的結構

lucene包括coresandbox兩部分,其中corelucene穩定的核心部分,sandbox包含了一些附加功能,例如highlighter、各種分析器。

Lucene core有七個包:analysisdocumentindexqueryParsersearchstoreutil

4.1 analysis

Analysis包含一些內建的分析器,例如按空白字元分詞的WhitespaceAnalyzer,添加了stopwrod過濾的StopAnalyzer,最常用的StandardAnalyzer

4.2 document

含文件的資料結構,例如document.定義了儲存文件的資料結構,Field類定義了document.一個域。

4.3 index

Index包含了索引的讀寫類,例如對索引檔案的segment進行寫、合併、優化的IndexWriter類和對索引進行讀取和刪除操作的 IndexReader類,這裡要注意的是不要被IndexReader這個名字誤導,以為它是索引檔案的讀取類,實際上刪除索引也是由它完成, IndexWriter只關心如何將索引寫入一個個segment,並將它們合併優化;IndexReader則關注索引檔案中各個文件的組織形式。

4.4 queryParser

QueryParser包含了解析查詢語句的類,lucene的查詢語句和sql語句有點類似,有各種保留字,按照一定的語法可以組成各種查詢。 Lucene有很多種Query類,它們都繼承自Query,執行各種特殊的查詢,QueryParser的作用就是解析查詢語句,按順序呼叫各種 Query類查找出結果。

4.5 search

Search包含了從索引中搜索結果的各種類,例如剛才說的各種Query類,包括TermQueryBooleanQuery等就在這個包裡。

4.6 store

Store包含了索引的儲存類,例如Directory定義了索引檔案的儲存結構,FSDirectory為儲存在檔案中的索引,RAMDirectory為儲存在記憶體中的索引,MmapDirectory為使用記憶體對映的索引。

4.7 util

Util包含一些公共工具類,例如時間和字串之間的轉換工具。

5 如何建索引

5.1 最簡單的能完成索引的程式碼片斷

IndexWriter writer = newIndexWriter(“/data/index/”, new StandardAnalyzer(), true);

document doc = new document();

doc.add(new Field("title","lucene introduction", Field.Store.YES, Field.Index.TOKENIZED));

doc.add(new Field("content","lucene works well", Field.Store.YES, Field.Index.TOKENIZED));

writer.adddocument(doc);

writer.optimize();

writer.close();

下面我們分析一下這段程式碼。

首先我們建立了一個writer,並指定存放索引的目錄為“/data/index”,使用的分析器為StandardAnalyzer,第三個引數說明如果已經有索引檔案在索引目錄下,我們將覆蓋它們。

然後我們新建一個document

我們向document.加一個field,名字是“title”,內容是“lucene introduction”,對它進行儲存並索引。

再新增一個名字是“content”field,內容是“lucene works well”,也是儲存並索引。

然後我們將這個文件新增到索引中,如果有多個文件,可以重複上面的操作,建立document.新增。

新增完所有document.我們對索引進行優化,優化主要是將多個segment合併到一個,有利於提高索引速度。

隨後將writer關閉,這點很重要。

對,建立索引就這麼簡單!

當然你可能修改上面的程式碼獲得更具個性化的服務。

5.2 將索引直接寫在記憶體

你需要首先建立一個RAMDirectory,並將其傳給writer,程式碼如下:

Directory dir = new RAMDirectory();

IndexWriter writer = new IndexWriter(dir, newStandardAnalyzer(), true);

documentdoc = new document);

doc.add(new Field("title","lucene introduction", Field.Store.YES, Field.Index.TOKENIZED));

doc.add(new Field("content","lucene works well", Field.Store.YES, Field.Index.TOKENIZED));

writer.adddocument(doc);

writer.optimize();

writer.close();

5.3 索引文字檔案

如果你想把純文字檔案索引起來,而不想自己將它們讀入字串建立field,你可以用下面的程式碼建立field

Field field = new Field("content", new FileReader(file));

這裡的file就是該文字檔案。該建構函式實際上是讀取檔案內容,並對其進行索引,但不儲存。

6 如何維護索引

索引的維護操作都是由IndexReader類提供。

6.1 如何刪除索引

lucene提供了兩種從索引中刪除document.方法,一種是

void deletedocument(int docNum)

這種方法是根據document.索引中的編號來刪除,每個document.進索引後都會有個唯一編號,所以根據編號刪除是一種精確刪除,但是這個編號是索引的內部結構,一般我們不會知道某個檔案的編號到底是幾,所以用處不大。另一種是

void deletedocument(Term term)

這種方法實際上是首先根據引數term執行一個搜尋操作,然後把搜尋到的結果批量刪除了。我們可以通過這個方法提供一個嚴格的查詢條件,達到刪除指定document.目的。

下面給出一個例子:

Directory dir = FSDirectory.getDirectory(PATH, false);

IndexReader reader = IndexReader.open(dir);

Term term = new Term(field, key);

reader.deletedocument(term);

reader.close();

6.2 如何更新索引

lucene並沒有提供專門的索引更新方法,我們需要先將相應的document刪除,然後再將新的document寫入索引。例如:

Directory dir = FSDirectory.getDirectory(PATH, false);

IndexReader reader = IndexReader.open(dir);

Term term = new Term(“title”, “lucene introduction”);

reader.deletedocument(term);

reader.close();

IndexWriter writer = new IndexWriter(dir, new StandardAnalyzer(), true);

documentdoc = new document);

doc.add(new Field("title", "lucene introduction",Field.Store.YES, Field.Index.TOKENIZED));

doc.add(new Field("content", "lucene is funny",Field.Store.YES, Field.Index.TOKENIZED));

writer.adddocument(doc);

writer.optimize();

writer.close();

7 如何搜尋

lucene的搜尋相當強大,它提供了很多輔助查詢類,每個類都繼承自Query類,各自完成一種特殊的查詢,你可以像搭積木一樣將它們任意組合使用,完成一些複雜操作;另外lucene還提供了Sort類對結果進行排序,提供了Filter類對查詢條件進行限制。你或許會不自覺地拿它跟SQL語句進行比較:“lucene能執行andororder bywherelike ‘%xx%’操作嗎?回答是:當然沒問題!

7.1 各種各樣的Query

下面我們看看lucene到底允許我們進行哪些查詢操作:

7.1.1 TermQuery

首先介紹最基本的查詢,如果你想執行一個這樣的查詢:content域中包含‘lucene’document,那麼你可以用TermQuery

Term t = new Term("content", "lucene");

Query query = new TermQuery(t);

7.1.2 BooleanQuery

如果你想這麼查詢:content域中包含javaperldocument,那麼你可以建立兩個TermQuery並把它們用BooleanQuery連線起來:

TermQuery termQuery1 = new TermQuery(new Term("content","java");

TermQuery termQuery2 = new TermQuery(new Term("content","perl");

BooleanQuery booleanQuery = new BooleanQuery();

booleanQuery.add(termQuery1, BooleanClause.Occur.SHOULD);

booleanQuery.add(termQuery2, BooleanClause.Occur.SHOULD);

7.1.3 WildcardQuery

如果你想對某單詞進行萬用字元查詢,你可以用WildcardQuery,萬用字元包括’?’匹配一個任意字元和’*’匹配零個或多個任意字元,例如你搜索’use*’,你可能找到’useful’或者’useless’

Query query = new WildcardQuery(newTerm("content", "use*");

7.1.4 PhraseQuery

你可能對中日關係比較感興趣,想查詢捱得比較近(5個字的距離內)的文章,超過這個距離的不予考慮,你可以:

PhraseQuery query = new PhraseQuery();

query.setSlop(5);

query.add(new Term("content ", “”));

query.add(new Term(“content”, “”));

那麼它可能搜到中日合作……”中方和日方……”,但是搜不到中國某高層領導說日本欠扁

7.1.5 PrefixQuery

如果你想搜以開頭的詞語,你可以用PrefixQuery

PrefixQuery query = new PrefixQuery(newTerm("content ", "");

7.1.6 FuzzyQuery

FuzzyQuery用來搜尋相似的term,使用Levenshtein演算法。假設你想搜尋跟‘wuzza’相似的詞語,你可以:

Query query = new FuzzyQuery(newTerm("content", "wuzza");

你可能得到‘fuzzy’‘wuzzy’

7.1.7 RangeQuery

另一個常用的QueryRangeQuery,你也許想搜尋時間域從2006010120060130之間的document.你可以用RangeQuery

RangeQuery query = new RangeQuery(newTerm(“time”, “20060101”), new Term(“time”, “20060130”), true);

最後的true表示用閉合區間。

7.2 QueryParser

看了這麼多Query,你可能會問:不會讓我自己組合各種Query吧,太麻煩了!當然不會,lucene提供了一種類似於SQL語句的查詢語句,我們姑且叫它lucene語句,通過它,你可以把各種查詢一句話搞定,lucene會自動把它們拆分成小塊交給相應Query執行。下面我們對應每種 Query演示一下:

TermQuery可以用“field:key”方式,例如“content:lucene”

BooleanQuery‘+’‘| ’,例如“content:java contenterl”

WildcardQuery仍然用‘?’‘*’,例如“content:use*”

PhraseQuery‘~’,例如“content:"中日"~5”

PrefixQuery‘*’,例如*”

FuzzyQuery‘~’,例如“content: wuzza ~”

RangeQuery‘[]’‘{}’,前者表示閉區間,後者表示開區間,例如“time:[20060101 TO 20060130]”,注意TO區分大小寫。

你可以任意組合query string,完成複雜操作,例如標題或正文包括lucene,並且時間在2006010120060130之間的文章可以表示為:“+ (title:lucene content:lucene)+time:[20060101 TO 20060130]”。程式碼如下:

Directory dir = FSDirectory.getDirectory(PATH, false);

IndexSearcher is = new IndexSearcher(dir);

QueryParser parser = new QueryParser("content", newStandardAnalyzer());

Query query = parser.parse("+(title:lucene content:lucene)+time:[20060101 TO 20060130]";

Hits hits = is.search(query);

for (int i = 0; i < hits.length(); i++)

{

documentdoc = hits.doc(i);

System.out.println(doc.get("title");

}

is.close();

首先我們建立一個在指定檔案目錄上的IndexSearcher

然後建立一個使用StandardAnalyzer作為分析器的QueryParser,它預設搜尋的域是content

接著我們用QueryParserparse查詢字串,生成一個Query

然後利用這個Query去查詢結果,結果以Hits的形式返回。

這個Hits物件包含一個列表,我們挨個把它的內容顯示出來。

7.3 Filter

filter的作用就是限制只查詢索引的某個子集,它的作用有點像SQL語句裡的 where,但又有區別,它不是正規查詢的一部分,只是對資料來源進行預處理,然後交給查詢語句。注意它執行的是預處理,而不是對查詢結果進行過濾,所以使用filter的代價是很大的,它可能會使一次查詢耗時提高一百倍。

最常用的filterRangeFilterQueryFilterRangeFilter是設定只搜尋指定範圍內的索引;QueryFilter是在上次查詢的結果中搜索。

Filter的使用非常簡單,你只需建立一個filter例項,然後把它傳給searcher

使用Lucene.Net實現全文檢索

一 Lucene.Net概述

Lucene.Net是一個C#開發的開源全文索引庫,其原始碼包括核心外圍兩部分。外圍部分實現輔助功能,而核心部分包括:

·        Lucene.Net.Index 提供索引管理,片語排序。

·        Lucene.Net.Search 提供查詢相關功能。

·        Lucene.Net.Store 支援資料儲存管理,主要包括I/O操作。

·        Lucene.Net.Util 公共類。

·        Lucene.Net.Documents 負責描述索引儲存時的檔案結構管理。

·        Lucene.Net.QueryParsers 提供查詢語法。

·        Lucene.Net.Analysis 負責分析文字。

全文檢索流程如下:

  一個簡單的全文檢索例項:

建立索引:

  關鍵程式碼形如:

        static void createIndex(string title, string content)
        {
            LN.Analysis.Analyzer analyzer = new LN.Analysis.Standard.StandardAnalyzer();
            LN.Index.IndexWriter iw = new LN.Index.IndexWriter("Index", analyzer, false);
            LN.Documents.Document document = new LN.Documents.Document();
            document.Add(new LN.Documents.Field("title", title, LN.Documents.Field.Store.YES, LN.Documents.Field.Index.TOKENIZED));
            document.Add(new LN.Documents.Field("content", content, LN.Documents.Field.Store.YES, LN.Documents.Field.Index.TOKENIZED));
            iw.AddDocument(document);
            iw.Optimize();
            iw.Close();
        }        

  查詢:

   關鍵程式碼形如:

     static List<Item> search(string keyWord)
        {
            List<Item> results = new List<Item>();
            LN.Analysis.Analyzer analyzer = new LN.Analysis.Standard.StandardAnalyzer();
            LN.Search.IndexSearcher searcher = new LN.Search.IndexSearcher("Index");
            LN.QueryParsers.MultiFieldQueryParser parser = new LN.QueryParsers.MultiFieldQueryParser(new string[] { "title", "content" }, analyzer);
            LN.Search.Query query = parser.Parse(keyWord);
            LN.Search.Hits hits = searcher.Search(query);
            for (int i = 0; i < hits.Length(); i++)
            {
                LN.Documents.Document doc = hits.Doc(i);
                results.Add(new Item() { Title = doc.Get("title"), Content = doc.Get("content") });
            }
            searcher.Close();
            return results;
        }

二 分詞

(一)內建分詞器

  分詞(切詞)是實現全文檢索的基礎,之所以我們能夠讓機器理解我們的自然語言,是因為有了分詞的幫助。分詞工作由Analyzer類完成,它負責把文字切成Token序列,Token就是索引中的單詞。Lucene.Net在兩個地方用到分詞:建立文件索引和分析搜尋關鍵字。其過程示意如下:

  由此可知,在建立索引和搜尋時,必須使用同樣的分詞器,保證其切出相同的Token才能檢索到結果。(Lucene.Net把查詢關鍵字中的單詞叫做“Term”TermToken的文字是一樣的,只是某些屬性不一樣。)

Lucene.Net實現了一些分詞器,其對英文支援較好,但是對中文支援欠佳。

  針對內建分詞器測試結果如下:

 關鍵程式碼形如:

        privatestatic List<string> cutWords(string words, Analyzer analyzer)

        {

           List<string> results = new List<string>();

           TokenStream ts = analyzer.ReusableTokenStream("", newStringReader(words));

            Tokentoken;

            while((token = ts.Next()) != null)

            {

               results.Add(token.TermText());

            }

           ts.Close();

            returnresults;

        }   

  可見,除了StandardAnalyzer外,其它分詞器對中文基本無法處理,需要使用者自行解決。

(二)分詞過程

  分詞實際是由以下型別完成

檢視WhitespaceAnalyzer的部分原始碼如下:

   public sealed class WhitespaceAnalyzer:Analyzer

    {

        publicoverride TokenStream TokenStream(System.String fieldName, System.IO.TextReaderreader)

        {

            returnnew WhitespaceTokenizer(reader);

        }

     ...

    }

由此可見,WhitespaceAnalyzer的工作都是交給 WhitespaceTokenizer來完成的,並且沒有使用篩選器,這也與之前測試的結果相符。我們可以利用TokenStream的派生型別來實現自定義分詞器。 例如修改上述程式碼來得到一個新的分詞器,功能類似WhitespaceAnalyzer,不同的是將大寫字母變為小寫,其程式碼形如:

public sealed class NewWhitespaceAnalyzer:Analyzer

    {

        publicoverride TokenStream TokenStream(System.String fieldName, System.IO.TextReaderreader)

        {

           TokenStream ts = new WhitespaceTokenizer(reader);

            returnnew LowerCaseFilter(ts);

        }

     ...

    }

(三)中文分詞

  顯然,使用者可以自定義分詞器,來實現中文分詞。但是,大多數使用者不熟悉中文分詞演算法,同時也沒有時間和精力來實現自定義分詞,畢竟分詞並不是我們系統的核心功能。因此,筆者引用了另一箇中文分片語件——盤古分詞。測試結果如下:

盤古分詞使用步驟如下:

Setp 1:新增相關程式集引用

這裡需要新增2個程式集,PanGu.dll(盤古分詞的核心元件)和PanGu.Lucene.Analyzer.dll(盤古分詞的Lucene元件)。

Step 2:新增中文分詞庫

Step 3:新增並設定配置檔案

Step 4:在Lucene.Net使用盤古分詞

  PanGu.Lucene.Analyzer.dll中定義了 Analyzer的派生型別Lucene.Net.Analysis.PanGu.PanGuAnalyzer,與Tokenizer的派生類 Lucene.Net.Analysis.PanGu.PanGuTokenizer,語法與Lucene.Net內建分詞器相同。

Step 5:維護分詞庫

使用DictManage.exe管理和維護詞庫:

三索引

(一)索引的儲存結構

  為了方便索引大量文件,Lucene.Net中的一個索引包括多個子索引,叫做Segment(段)。每個Segment包括多個可搜尋的文件,叫做Document;每個Document包括多個Field;每個Field又包括多個Term。綜上所述,Lucene.Net的索引檔案的邏輯結構如下:

索引檔案的物理表示如下:

  Lucene.Net把一個文件寫入索引時,首先生成這個文件的到排索引,然後再把文件的倒排索引合併到段的倒排索引中。

(二)常用型別

·        Directory Lucene.Net的Directory型別實現索引的儲存。常用型別繼承樹如下:

·        IndexWriter 負責將索引寫入Directory。Lucene通過設定快取來提供寫索引的速度,IndexWriter有幾個引數來調整快取的大小,控制Segment的數量,以及寫索引的頻率:

1.    合併因子(mergeFactor) 這個引數決定一個索引塊中可以存放多少文件(Document)以及把磁碟上的索引段(Segment)合併成一個大索引段的頻率。該引數預設值為10。在預設情況下,快取中Document數達到10時,所有的文件將寫入一個新的Segment。並且,如果Directory的Segment的個數達到 10,這10個索引塊會被合併成一個新的Segment。對於大量文件來說,這個值大一些會更好。可以通過“SetMergeFactor(int mergeFactor)”方法來設定、

2.    最小合併文件數(minMergeDocs)、最大快取文件數(maxBufferedDocs) 預設值為10,它決定快取中Document數量達到多少才能將他們寫入磁碟。該值越大越消耗記憶體,I/O操作越少。(本處,筆者也有些糊塗,筆者感覺兩者類似,不知道具體區別,若理解有誤還請讀者賜教。)

3.    最大合併文件數(maxMergeDocs) 預設值為Integer.MAX_VALUE,它決定一個索引段(Segment)中的最大文件(Document)數。該值越大越高效,因為預設值以及很大了所以不用改變。

4.    最大域長度(maxFieldLength) 預設值10000,表示擷取該域中的前10000個Term,前10000個以外的Term將不被索引和檢索。該值可在索引中隨時更改,並即時生效(僅對之後的操作生效,一般該值設定為Integer.MAX_VALUE)。

    IndexWriter的常用方法包括:

1.    Flush/Commit Flush方法與Commit方法相同,都是把快取中的資料提交,可以清除快取。

2.    Close 無論是否發生異常都必須呼叫Close方法,該方法將對檔案進行解鎖,並完成Flush方法的功能。

3.    Optimize Optimize方法用於優化索引,執行相當耗時。

·        Document 包含了可索引文件的資訊。每個Document都有一個編號,但該編號並非永遠不變。

·        Field 類似實體的某個屬性,就像資料庫中的一個列,其成員如下:

 (可以看到,Index的某些欄位我給出的相同的註釋,這是因為向下相容的目的而具有相同的作用。注:高亮顯示將用的TermVector。)

  常用列選項組合及用法如下:

Index

Store

TermVector

用法

NOT_ANSLYZED

YES

NO

檔名、主鍵

ANSLYZED

YES

WITH_POSITUION_OFFSETS

標題、摘要

ANSLYZED

NO

WITH_POSITUION_OFFSETS

很長的全文

NO

YES

NO

文件型別

NOT_ANSLYZED

NO

NO

隱藏的關鍵詞

(三)建立索引

  建立索引流程如下:

1 基本實現

  其程式碼形如:

       private static void saveIndex(string dirPath, stringuri, string title, string summary)

        {

            //判斷是建立索引還是追加索引

            boolisNew = false;

            if(!LN.Index.IndexReader.IndexExists(dirPath))

            {

               isNew = true;

            }

           LN.Index.IndexWriter iw = new LN.Index.IndexWriter(dirPath, newPanGuAnalyzer(), isNew);//使用PanGuAnalyzer初始化IndexWriter,引數create為true表示建立,為false表示新增。

           LN.Documents.Document document = new LN.Documents.Document();//建立Document

            //新增Field

           document.Add(new LN.Documents.Field("Uri", uri,LN.Documents.Field.Store.YES, LN.Documents.Field.Index.NO));

           document.Add(new LN.Documents.Field("Title", title,LN.Documents.Field.Store.YES, LN.Documents.Field.Index.ANALYZED));

           document.Add(new LN.Documents.Field("Create