1. 程式人生 > >數據挖掘十大經典算法

數據挖掘十大經典算法

knn 條件 簡單 劃分 art 一次 經典算法 最大化 假設

1、c4.5

c4.5算法是機器學習算法中的一種分類決策樹算法,其核心是ID3算法,c4.5算法繼承了ID3算法的優點,並在一下幾個放米娜對ID3算法進行了改進:

1)用信息增益率來選擇屬性,克服了用信息增益選擇屬性時偏向選擇取值多的屬性的不足。

2)在樹構造過程中進行剪枝。

3)能夠完成對不連續屬性的離散化處理。

4)能夠對不完整數據進行處理。

c4.5算法有如下優點:產生的分類規則易於理解,準確率高。其缺點是:在構造樹的過程中,需要對數據集進行多次的順序掃描和排序,因而導致算法的低效。

2、K-means算法

K-means算法是一個聚類算法,把n的對象根據他們的屬性分為k個分割,k<n。它與處理混合正太分布的最大期望算法很相似,因為他們都試圖找到數據中自然聚類的中心。他假設對象屬性來自於空間向量,並且目標是使各個群組內部的均方誤差綜合最小。

3、SVM

支持向量機,英文為SVM,簡稱SV機。他是一種監督式的學習方法,它廣泛的應用於統計分類以及回歸分析中。支持向量機將向量映射到一個更高維的空間裏,在空間裏建立一個最大間隔超平面。在分開數據的超平面的兩邊建有兩個相互平行的超平面。分割超平面使兩個平行超平面的距離最大化。假定平行超平面間的距離或差距越大,分類器的總誤差越小。

4、Apriori

Apriori算法是一種最有影響的挖掘布爾關聯規則頻繁項集的算法。其核心是基於兩階段頻集思想的遞推算法。該關聯規則在分類上屬於單維、單層、布爾關聯規則。在這裏,所有支持度大於最小支持度的項集稱為頻繁項集,簡稱頻集。

5、EM算法

在統計計算中,最大期望算法是在概率模型中尋找參數最大似然估計的算法,其中概率模型依賴於無法觀測的隱藏變量。最大期望經常用在機器學習和計算機視覺的數據集領域

6、PageRank

PageRank根據網站的外部鏈接和內部鏈接的數量和質量平衡網站的價值,PageRank背後的概念是,每個頁面的鏈接都是對該頁面的一次投票,被鏈接的越多,就意味這被其他網站投票越多。這個就是所謂的“鏈接流行度”——衡量多少人願意將他們的網站和你的網站掛鉤。

7、Adaboost

Adaboost是一種叠代算法,其核心思想是針對同一個訓練集訓練不同的分類器(弱分類器),然後把這些弱分類器集合起來,構成一個更強的最終分了器(強分類器)。其算法本身是通過改變數據分布來實現的,它根據每次訓練集之中每個樣本的分類是否正確,以及上次的總體分類正確率,,來確定每個樣本的權值。將修改過的權值的新數據集送給下層分類器進行訓練,最後將每次訓練得到的結果融合起來,作為最後的決策分類器。

8、KNN

K最近鄰分類算法,是一個理論上比較成熟的方法,也是最簡單的機器學習算法之一。該算法的思路是:如果一個樣本在特征空間中k個最相似的(即最近鄰)樣本中,大多數屬於某一個類別,則該樣本也屬於這個類別。

9、樸素貝葉斯

在眾多的分類模型中,應用最為管飯的兩種分類模型是決策樹模型和樸素貝葉斯模型。樸素貝葉斯模型發源於古典數學理論,有著堅實的數學基礎,以及穩定的分類效率。同時該模型所需要估計的參數很少,對缺失數據不太敏感。算法也比較簡單。理論上,該模型與其他分類相比有最小的誤差率。但是實際上並非如此,因為其假設特征條件相互獨立,這個假設在實際中往往是不成立的。

10、CART:分類回歸樹

CART,在分類樹下面的兩個關鍵思想。第一個是關於遞歸的劃分自變量空間的想法;第二個想法是用驗證數據進行剪枝。

數據挖掘十大經典算法