1. 程式人生 > >數據挖掘十大算法

數據挖掘十大算法

pager 大數據時代 屬性。 reg 實的 們的 svm 下層 計算

大數據時代 數據挖掘十大經典算法

  不不過選中的十大算法,事實上參加評選的18種算法。實際上隨便拿出一種來都能夠稱得上是經典算法,它們在數據挖掘領域都產生了極為深遠的影響。


  1.C4.5
  C4.5算法是機器學習算法中的一種分類決策樹算法,其核心算法是ID3算法.C4.5算法繼承了ID3算法的長處。並在下面幾方面對ID3算法進行了改進:
  1)用信息增益率來選擇屬性。克服了用信息增益選擇屬性時偏向選擇取值多的屬性的不足;
  2)在樹構造過程中進行剪枝;
  3)可以完畢對連續屬性的離散化處理。
  4)可以對不完整數據進行處理。
  C4.5算法有例如以下長處:產生的分類規則易於理解,準確率較高。其缺點是:在構造樹的過程中。須要對數據集進行多次的順序掃描和排序,因而導致算法的低效。
  2.Thek-meansalgorithm即K-Means算法
  k-meansalgorithm算法是一個聚類算法,把n的對象依據他們的屬性分為k個切割,k 3.Supportvectormachines
  支持向量機,英文為SupportVectorMachine,簡稱SV機(論文中一般簡稱SVM)。它是一種監督式學習的方法,它廣泛的應用於統計分類以及回歸分析中。支持向量機將向量映射到一個更高維的空間裏,在這個空間裏建立有一個最大間隔超平面。

在分開數據的超平面的兩邊建有兩個互相平行的超平面。分隔超平面使兩個平行超平面的距離最大化。假定平行超平面間的距離或差距越大。分類器的總誤差越小。一個極好的指南是C.J.CBurges的《模式識別支持向量機指南》。vanderWalt和Barnard將支持向量機和其它分類器進行了比較。


  4.TheApriorialgorithm
  Apriori算法是一種最有影響的挖掘布爾關聯規則頻繁項集的算法。其核心是基於兩階段頻集思想的遞推算法。

該關聯規則在分類上屬於單維、單層、布爾關聯規則。

在這裏。全部支持度大於最小支持度的項集稱為頻繁項集,簡稱頻集。


  5.最大期望(EM)算法
  在統計計算中。最大期望(EM,Expectation–Maximization)算法是在概率(probabilistic)模型中尋找參數最大似然預計的算法,當中概率模型依賴於無法觀測的隱藏變量(LatentVariabl)。

最大期望經經常使用在機器學習和計算機視覺的數據集聚(DataClustering)領域。


  6.PageRank
  PageRank是Google算法的重要內容。

2001年9月被授予美國專利,專利人是Google創始人之中的一個拉裏·佩奇(LarryPage)。因此,PageRank裏的page不是指網頁,而是指佩奇,即這個等級方法是以佩奇來命名的。


  PageRank依據站點的外部鏈接和內部鏈接的數量和質量倆衡量站點的價值。

PageRank背後的概念是,每一個到頁面的鏈接都是對該頁面的一次投票,被鏈接的越多,就意味著被其它站點投票越多。這個就是所謂的“鏈接流行度”——衡量多少人願意將他們的站點和你的站點掛鉤。

PageRank這個概念引自學術中一篇論文的被引述的頻度——即被別人引述的次數越多,一般推斷這篇論文的權威性就越高。
  7.AdaBoost
  Adaboost是一種叠代算法。其核心思想是針對同一個訓練集訓練不同的分類器(弱分類器),然後把這些弱分類器集合起來。構成一個更強的終於分類器(強分類器)。其算法本身是通過改變數據分布來實現的,它依據每次訓練集之中每一個樣本的分類是否正確,以及上次的整體分類的準確率,來確定每一個樣本的權值。將改動過權值的新數據集送給下層分類器進行訓練。最後將每次訓練得到的分類器最後融合起來,作為最後的決策分類器。
  8.kNN:k-nearestneighborclassification
  K近期鄰(k-NearestNeighbor,KNN)分類算法,是一個理論上比較成熟的方法,也是最簡單的機器學習算法之中的一個。

該方法的思路是:假設一個樣本在特征空間中的k個最相似(即特征空間中最鄰近)的樣本中的大多數屬於某一個類別。則該樣本也屬於這個類別。
  9.NaiveBayes
  在眾多的分類模型中,應用最為廣泛的兩種分類模型是決策樹模型(DecisionTreeModel)和樸素貝葉斯模型(NaiveBayesianModel,NBC)。樸素貝葉斯模型發源於古典數學理論,有著堅實的數學基礎,以及穩定的分類效率。同一時候,NBC模型所需預計的參數非常少。對缺失數據不太敏感,算法也比較簡單。理論上。NBC模型與其它分類方法相比具有最小的誤差率。

可是實際上並不是總是如此,這是由於NBC模型如果屬性之間相互獨立,這個如果在實際應用中往往是不成立的。這給NBC模型的正確分類帶來了一定影響。在屬性個數比較多或者屬性之間相關性較大時,NBC模型的分類效率比不上決策樹模型。

而在屬性相關性較小時。NBC模型的性能最為良好。
  10.CART:分類與回歸樹
  CART,ClassificationandRegressionTrees。在分類樹以下有兩個關鍵的思想。第一個是關於遞歸地劃分自變量空間的想法;第二個想法是用驗證數據進行剪枝。

數據挖掘十大算法