1. 程式人生 > >四種聚類演算法的比較

四種聚類演算法的比較

聚類分析是一種重要的人類行為,早在孩提時代,一個人就通過不斷改進下意識中的聚類模式來學會如何區分貓狗、動物植物。目前在許多領域都得到了廣泛的研究和成功的應用,如用於模式識別、資料分析、影象處理、市場研究、客戶分割、Web文件分類等[1]。
 聚類就是按照某個特定標準(如距離準則)把一個數據集分割成不同的類或簇,使得同一個簇內的資料物件的相似性儘可能大,同時不在同一個簇中的資料物件的差異性也儘可能地大。即聚類後同一類的資料儘可能聚集到一起,不同資料儘量分離。
 聚類技術[2]正在蓬勃發展,對此有貢獻的研究領域包括資料探勘、統計學、機器學習、空間資料庫技術、生物學以及市場營銷等。各種聚類方法也被不斷提出和改進,而不同的方法適合於不同型別的資料,因此對各種聚類方法、聚類效果的比較成為值得研究的課題。
1 聚類演算法的分類


 目前,有大量的聚類演算法[3]。而對於具體應用,聚類演算法的選擇取決於資料的型別、聚類的目的。如果聚類分析被用作描述或探查的工具,可以對同樣的資料嘗試多種演算法,以發現數據可能揭示的結果。
 主要的聚類演算法可以劃分為如下幾類:劃分方法、層次方法、基於密度的方法、基於網格的方法以及基於模型的方法[4-6]。
 每一類中都存在著得到廣泛應用的演算法,例如:劃分方法中的k-means[7]聚類演算法、層次方法中的凝聚型層次聚類演算法[8]、基於模型方法中的神經網路[9]聚類演算法等。
 目前,聚類問題的研究不僅僅侷限於上述的硬聚類,即每一個數據只能被歸為一類,模糊聚類[10]也是聚類分析中研究較為廣泛的一個分支。模糊聚類通過隸 屬函式來確定每個資料隸屬於各個簇的程度,而不是將一個數據物件硬性地歸類到某一簇中。目前已有很多關於模糊聚類的演算法被提出,如著名的FCM演算法等。
 本文主要對k-means聚類演算法、凝聚型層次聚類演算法、神經網路聚類演算法之SOM,以及模糊聚類的FCM演算法通過通用測試資料集進行聚類效果的比較和分析。
2 四種常用聚類演算法研究
2.1 k-means聚類演算法

 k-means是劃分方法中較經典的聚類演算法之一。由於該演算法的效率高,所以在對大規模資料進行聚類時被廣泛應用。目前,許多演算法均圍繞著該演算法進行擴充套件和改進。
 k-means演算法以k為引數,把n個物件分成k個簇,使簇內具有較高的相似度,而簇間的相似度較低。k-means演算法的處理過程如下:首先,隨機地 選擇k個物件,每個物件初始地代表了一個簇的平均值或中心;對剩餘的每個物件,根據其與各簇中心的距離,將它賦給最近的簇;然後重新計算每個簇的平均值。 這個過程不斷重複,直到準則函式收斂。通常,採用平方誤差準則,其定義如下:
 
 這裡E是資料庫中所有物件的平方誤差的總和,p是空間中的點,mi是簇Ci的平均值[9]。該目標函式使生成的簇儘可能緊湊獨立,使用的距離度量是歐幾里得距離,當然也可以用其他距離度量。k-means聚類演算法的演算法流程如下:
    輸入:包含n個物件的資料庫和簇的數目k;
    輸出:k個簇,使平方誤差準則最小。
    步驟:
  (1) 任意選擇k個物件作為初始的簇中心;
  (2) repeat;
  (3) 根據簇中物件的平均值,將每個物件(重新)賦予最類似的簇;
  (4) 更新簇的平均值,即計算每個簇中物件的平均值;
  (5) until不再發生變化。
2.2  層次聚類演算法

    根據層次分解的順序是自底向上的還是自上向下的,層次聚類演算法分為凝聚的層次聚類演算法和分裂的層次聚類演算法。
 凝聚型層次聚類的策略是先將每個物件作為一個簇,然後合併這些原子簇為越來越大的簇,直到所有物件都在一個簇中,或者某個終結條件被滿足。絕大多數層次聚類屬於凝聚型層次聚類,它們只是在簇間相似度的定義上有所不同。四種廣泛採用的簇間距離度量方法如下:

   這裡給出採用最小距離的凝聚層次聚類演算法流程:
 (1) 將每個物件看作一類,計算兩兩之間的最小距離;
 (2) 將距離最小的兩個類合併成一個新類;
 (3) 重新計算新類與所有類之間的距離;
 (4) 重複(2)、(3),直到所有類最後合併成一類。
2.3 SOM聚類演算法
 SOM神經網路[11]是由芬蘭神經網路專家Kohonen教授提出的,該演算法假設在輸入物件中存在一些拓撲結構或順序,可以實現從輸入空間(n維)到輸出平面(2維)的降維對映,其對映具有拓撲特徵保持性質,與實際的大腦處理有很強的理論聯絡。
 SOM網路包含輸入層和輸出層。輸入層對應一個高維的輸入向量,輸出層由一系列組織在2維網格上的有序節點構成,輸入節點與輸出節點通過權重向量連線。 學習過程中,找到與之距離最短的輸出層單元,即獲勝單元,對其更新。同時,將鄰近區域的權值更新,使輸出節點保持輸入向量的拓撲特徵。
 演算法流程:
 (1) 網路初始化,對輸出層每個節點權重賦初值;
 (2) 將輸入樣本中隨機選取輸入向量,找到與輸入向量距離最小的權重向量;
 (3) 定義獲勝單元,在獲勝單元的鄰近區域調整權重使其向輸入向量靠攏;
 (4) 提供新樣本、進行訓練;
 (5) 收縮鄰域半徑、減小學習率、重複,直到小於允許值,輸出聚類結果。
2.4 FCM聚類演算法
 1965年美國加州大學柏克萊分校的扎德教授第一次提出了‘集合’的概念。經過十多年的發展,模糊集合理論漸漸被應用到各個實際應用方面。為克服非此即彼的分類缺點,出現了以模糊集合論為數學基礎的聚類分析。用模糊數學的方法進行聚類分析,就是模糊聚類分析[12]。
  FCM演算法是一種以隸屬度來確定每個資料點屬於某個聚類程度的演算法。該聚類演算法是傳統硬聚類演算法的一種改進。

    演算法流程:
 (1) 標準化資料矩陣;
 (2) 建立模糊相似矩陣,初始化隸屬矩陣;
 (3) 演算法開始迭代,直到目標函式收斂到極小值;
 (4) 根據迭代結果,由最後的隸屬矩陣確定資料所屬的類,顯示最後的聚類結果。
3 四種聚類演算法試驗
3.1 試驗資料

 實驗中,選取專門用於測試分類、聚類演算法的國際通用的UCI資料庫中的IRIS[13]資料集,IRIS資料集包含150個樣本資料,分別取自三種不同 的鶯尾屬植物setosa、versicolor和virginica的花朵樣本,每個資料含有4個屬性,即萼片長度、萼片寬度、花瓣長度,單位為cm。 在資料集上執行不同的聚類演算法,可以得到不同精度的聚類結果。
3.2 試驗結果說明
 文中基於前面所述各演算法原理及演算法流程,用matlab進行程式設計運算,得到表1所示聚類結果。

 如表1所示,對於四種聚類演算法,按三方面進行比較:(1)聚錯樣本數:總的聚錯的樣本數,即各類中聚錯的樣本數的和;(2)執行時間:即聚類整個 過程所耗費的時間,單位為s;(3)平均準確度:設原資料集有k個類,用ci表示第i類,ni為ci中樣本的個數,mi為聚類正確的個數,則mi/ni為 第i類中的精度,則平均精度為:

3.3 試驗結果分析
    四種聚類演算法中,在執行時間及準確度方面綜合考慮,k-means和FCM相對優於其他。但是,各個演算法還是存在固定缺點:k-means聚類演算法的初 始點選擇不穩定,是隨機選取的,這就引起聚類結果的不穩定,本實驗中雖是經過多次實驗取的平均值,但是具體初始點的選擇方法還需進一步研究;層次聚類雖然 不需要確定分類數,但是一旦一個分裂或者合併被執行,就不能修正,聚類質量受限制;FCM對初始聚類中心敏感,需要人為確定聚類數,容易陷入區域性最優 解;SOM與實際大腦處理有很強的理論聯絡。但是處理時間較長,需要進一步研究使其適應大型資料庫。
    聚類分析因其在許多領域的成功應用而展現出誘人的應用前景,除經典聚類演算法外,各種新的聚類方法正被不斷被提出。

相關推薦

演算法比較

聚類分析是一種重要的人類行為,早在孩提時代,一個人就通過不斷改進下意識中的聚類模式來學會如何區分貓狗、動物植物。目前在許多領域都得到了廣泛的研究和成功的應用,如用於模式識別、資料分析、影象處理、市場研究、客戶分割、Web文件分類等[1]。  聚類就是按照某個特定標準(如距

Kmeans、Kmeans++、Birch和KNN演算法對二維座標點的分析對比實驗

0 寫在前面(資料集和原始碼)本文章涉及到的資料集合所有程式碼均上傳在此處:https://download.csdn.net/download/zhouzhuo_csuft/10494273;點選此處直接開啟連結;一共有四個程式碼檔案,分別是Kmeans、Kmeans++、

方法之比較

最近在做網站的個性化搜尋,計劃從性別模型入手,打算使用K近鄰演算法對未登入的使用者進行性別的 預測,所以搜尋了相關的演算法,目前並未實踐,先轉載一篇博文,後續有了實踐經驗再寫文章詳述。 0 前言: 聚類分析是一種重要的人類行為,早在孩提時代,一個人就通過不斷改進下意識

一文盤點5演算法,資料科學家必備!

聚類是一種將資料點按一定規則分群的機器學習技術。 給定一組資料點,我們可以使用聚類演算法將每個資料點分類到一個特定的簇中。理論上,屬於同一類的資料點應具有相似的屬性或特徵,而不同類中的資料點應具有差異很大的屬性或特徵。 聚類屬於無監督學習中的一種方法,也是一種在許多領域中用於統計

鳶尾花三演算法(K-means,AGNES,DBScan)的python實現

一.分散性聚類(kmeans) 演算法流程: 1.選擇聚類的個數k. 2.任意產生k個聚類,然後確定聚類中心,或者直接生成k箇中心。 3.對每個點確定其聚類中心點。 4.再計算其聚類新中心。 5.重複以上步驟直到滿足收斂要求。(通常就是確定的中心點不再改變。

R語言演算法比較

說明 在使用不同的聚類演算法完成資料聚類操作後,我們可以對演算法的效能進行評估,絕大多數情況下,我們即可以使用簇內距離也可以使用簇間距離作為評價標準。使用fpc演算法包的cluster.stat函式來比較不同的聚類演算法。 操作 匯入fpc包,選擇層次

方法及程式碼實現。K-means 高斯 密度 均值漂移

四種方法的matlab程式碼實現:連結: https://pan.baidu.com/s/1b6pKH65rYrRcBLnczz-EnA 密碼: 4iag1.K-means聚類:演算法步驟: (1) 首先我們選擇一些類/組,並隨機初始化它們各自的中心點。中心點是與每個資料點向

大資料演算法效能比較及實驗報告

在大資料領域這個聚類演算法真是起到了十分重要的作用,只有通過有效地聚類才能得到非常直觀的結果。 有一個實驗要求對比兩種大資料聚類演算法的效能,具體的程式碼也不是由我實現的,我只是改了一部分,主要還是部落格大佬們的程式碼,我這裡借用了一下~~ 具體的實驗報告和

改進的自適應快速AF-DBSCAN演算法

本人研究生期間寫的關於聚類演算法的一篇論文,已發表,希望對大家學習機器學習、資料探勘等相關研究有所幫助! 一種改進的自適應快速AF-DBSCAN聚類演算法 An Improved Adaptive and Fast AF-DBSCAN Clustering Algorit

【opencv學習之十三】K均值演算法

K均值聚類演算法,在opencv中通過kmeans()函式實現;k均值通俗講:就是從一堆樣本中,隨便挑出幾個,比如3個吧,然後用樣本中的和這挑出來的比較,比較後排序,誰和挑出的那個接近就把他劃到那個類裡,比如樣A和挑1、挑2、挑3中,挑2最接近,則把樣A劃到挑2裡,當然還沒完

各種演算法的系統介紹和比較

最近專案用到聚類演算法,將其系統的總結一下。 一、簡要介紹 1、聚類概念 聚類就是按照某個特定標準(如距離準則)把一個數據集分割成不同的類或簇,使得同一個簇內的資料物件的相似性儘可能大,同時不在同一個簇中的資料物件的差異性也儘可能地大。即聚類後同一類的資料儘可能

演算法(二)、演算法的系統性比較

      聚類是試圖將資料集中的樣本劃分為若干個不相交的子集。每個子集稱為一個“簇”(cluster)。聚類既能作為一個單獨的過程,也可以作為分類等其他學習任務的前驅任務、例如,在一些商業應用中,需要對新使用者的型別進行判別,但是定義“使用者l型別”對商家來說可不容易,此時

用Python進行無監督學習的幾最熱門的演算法

無監督學習是機器學習技術中的一類,用於發現數據中的模式。本文介紹用Python進行無監督學習的幾種聚類演算法,包括K-Means聚類、分層聚類、t-SNE聚類、DBSCAN聚類等。 無監督學習是機器學習技術中的一類,用於發現數據中的模式。無監督演算法的資料沒有標註,這意味著只提供輸入變數(X),

演算法)、基於高斯混合分佈 GMM 的方法(補充閱讀)

      基於高斯混合分佈的聚類,我看了很多資料,,寫的千篇一律,一律到讓人看不明白。直到認真看了幾遍周志華寫的,每看一遍,都對 GMM 聚類有一個進一步的認識。所以,如果你想了解這一塊,別看亂七八糟的部落格了,直接去看周志華的《機器學習》 P206頁。 下面是我額外看的

面向高維資料的整合演算法

聚類整合已經成為機器學習的研究熱點,它對原始資料集的多個聚類結果進行學習和整合,得到一個能較好地反映資料集內在結構的資料劃分。很多學者的研究證明聚類整合能有效地提高聚類結果的準確性、魯棒性和穩定性。本文提出了一種面向高維資料的聚類整合演算法。該方法針對高維資料的

演算法實踐()——演算法總結

  前面的文章裡總共提到了7種聚類演算法,我們就會情不自禁地想知道,哪一種是“最好”的聚類演算法?   正如我在一開始就提到,聚類實際上是由使用者來給定規則,從而實現分類的。所以所謂“最好”的聚類演算法,就應該是那個聚類規則“最能反映系統特徵”的演算法(當然,

演算法推薦:一元學習的方法

摘要:元學習是一種技術,其目的在於理解什麼型別的演算法解決什麼型別的問題。相比之下,聚類是基於物件的相似性把一個數據集劃分幾個簇,不需要物件類標籤的先驗知識。本文提出了基於無標籤物件特徵的提取,使用元學習推薦出聚類演算法。基於將要被計算的聚類問題的特徵以及不同聚類演算法的排

K-means演算法的三改進(K-means++,ISODATA,Kernel K-means)介紹與對比

  一、概述       在本篇文章中將對四種聚類演算法(K-means,K-means++,ISODATA和Kernel K-means)進行詳細介紹,並利用資料集來真實地反映這四種演算法之間的區別。       首先需要明確的是上述四種演算法都屬於"硬聚類”演算法,即資料集中每一個樣本都是被100%確定得

尋路演算法計算步驟比較

四種演算法是DFS,BFS,Heuristic DFS, Heuristic BFS (A*) 用了兩張障礙表,一張是典型的迷宮: char Block[SY][SX]= {{1,1,1,1,1,1,1,1,1,1,1 }, {1,0,1,0,1,0,0,0,0,0,1 }, {1,0,1,0,0,0,1,0

發表在 Science 上的一演算法

今年 6 月份,Alex Rodriguez 和 Alessandro Laio 在 Science 上發表了一篇名為《Clustering by fast search and find of density peaks》的文章,為聚類演算法的設計提供了一種新的思路。雖