1. 程式人生 > >大資料分析:機器學習演算法實現的演化

大資料分析:機器學習演算法實現的演化

我將會對機器學習演算法的不同的實現正規化進行講解,既有來自文獻中的,也有來自開源社群裡的。首先,這裡列出了目前可用的三代機器學習工具。

  1. 傳統的機器學習和資料分析的工具,包括SAS,IBM的SPSS,Weka以及R語言。它們可以在小資料集上進行深度分析——工具所執行的節點的記憶體可以容納得下的資料集。
  2. 第二代機器學習工具,包括Mahout,Pentaho,以及RapidMiner。它們可以對大資料進行我稱之為粗淺的分析。基於Hadoop之上進行的傳統機器學習工具的規模化的嘗試,包括Revolution Analytics的成果(RHadoop)以及Hadoop上的SAS,都可以歸到第二代工具裡面。
  3. 第三代工具,比如Spark, Twister,HaLoop,Hama以及GraphLab。它們可以對大資料進行深度的分析。傳統供應商最近的一些嘗試包括SAS的記憶體分析,也屬於這一類。

第一代機器學習工具/正規化

由於第一代工具擁有大量的機器學習演算法,因此它們適合進行深度的分析。然而,由於可擴充套件性的限制,它們並不都能在大資料集上進行工作——比如TB或者PB級的資料(受限於這些工具本質上是非分散式的)。也就是說,它們可以進行垂直擴充套件(你可以提高工具執行的節點的處理能力),但無法進行水平擴充套件(它們並非都能在叢集上執行)。第一代工具的供應商通過建立Hadoop聯結器以及提供叢集選項來解決這些侷限性——這意味著它們在努力對R或者SAS這樣的工具進行重新設計以便可以進行水平擴充套件。這些都應該歸入第二代和第三代工具,下面我們將會介紹到。

第二代機器學習工具/正規化

第二代工具(現在我們可以把傳統的機器學習工具比如SAS這些稱之為第一代工具了)比如Mahout(http://mahout.apache.org),Rapidminer以及Pentaho,它們通過在開源的MapReduce產品——Hadoop之上實現相關演算法,提供了擴充套件到大資料集上的能力。這些工具仍在快速完善並且是開源的(尤其是Mahout)。Mahout擁有一系列的聚類及分類的演算法,以及一個相當不錯的推薦演算法(Konstan和Riedl,2012)。因此它可以進行大資料的處理,現在在生產環境上已經有大量的使用案例,主要用於推薦系統。我在一個線上系統中也使用Mahout來實現了一個金融領域的推薦演算法,發現它確是可擴充套件的,儘管並不是一點問題沒有(我還修改了相當一部分程式碼)。關於Mahou的一項評測發現它只實現了機器學習演算法中的很小的一個子集——只有25個演算法是達到了生產質量的,8到9個在Hadoop之上可用,這意味著能在大資料集上進行擴充套件。這些演算法包括線性迴歸,線性支援向量機,K-means聚類演算法,等等。它通過並行訓練,提供了順序邏輯迴歸的一個快速的實現。然而,正如別人指出的(比如Quora.com),它沒有實現非線性支援向量機以及多變項邏輯迴歸(這也稱為離散選擇模型)。

畢竟來說,本書並不是要為了抨擊Mahout的。不過我認為有些機器學習演算法的確是很難在Hadoop上實現,比如支援向量機的核函式以及共軛梯度法(CGD,值得注意的是Mahout實現了一個隨機梯度下降)。這一點別人也同樣指出了,比方說可以看一下Srirama教授的一篇論文(Srirama等人,2012年)。這裡詳細地比較了Hadoop和Twister MR(Ekanayake
等,2010年)在諸如共軛梯度法等迭代式演算法上的不同,它指出,Hadoop上的開銷非常明顯。我所說的迭代式是指什麼?一組執行特定計算的實體,在等待鄰居或者其它實體的返回結果,然後再進行下一輪迭代。CGD是迭代式演算法的最佳範例——每個CGD都可以分解成daxpy,ddot,matmul等原語。我會分別解釋這三種原語都是什麼:daxpy操作將向量x與常量k相乘,然後再和另一個向量y進行相加;ddot會計算兩個向量x,y的點積;matmul將矩陣與向量相乘,然後返回另一個向量。這意味著每個操作對應 一個MapReduce操作,一次迭代會有6個MR操作,最終一次CG運算會有100個MR操作,以及數GB的資料互動,儘管這只是很小的矩陣。事實上,準備每次迭代的開銷(包括從HDFS載入資料到記憶體的開銷)比迭代運算本身的都大,這導致Hadoop上的MR會出現效能下降。相反,Twister會區分靜態資料和可變資料,使得資料可以在MR迭代過程中常駐記憶體,同時還有一個合併階段來收集reduce階段輸出的結果,因此效能有明顯的提升。

第二代工具還有一些是傳統工具基於Hadoop上進行的擴充套件。這類可供選擇的有Revolution Analytics的產品,它是在Hadoop上對R語言進行了擴充套件,以及在Hadoop上實現R語言程式的一個可擴充套件的執行時環境(Venkataraman等
,2012)。SAS的記憶體分析,作為 SAS的高效能分析工具包中的一部分,是傳統工具在Hadoop叢集上進行規模化的另一個嘗試。然而,最近釋出的版本不僅能在Hadoop上執行,同時也支援Greenplum/Teradata,這應該算作是第三代機器學習的方法。另一個有趣的產品是一家叫Concurrent Systems的初創公司實現的,它提供了一個預測模型標記語言(Predictive Modeling Markup Language,PMML)在Hadoop上的執行環境。PMML的模型有點類似XML,使得模型可以儲存在描述性語言的檔案中。傳統工具比如 R以及SAS都可以將模型儲存在PMML檔案裡。Hadoop上的執行環境使得它們可以將這些模型檔案儲存到一個Hadoop叢集上,因此它們也屬於第二代工具/正規化。

第三代機器學習工具/正規化

Hadoop自身的侷限性以及它不太適合某類應用程式,這促進研究人員提出了新的替代方案。第三代工具主要是嘗試超越Hadoop來進行不同維度的分析。我將會根據三種維度來討論不同的實現方案,分別是機器學習演算法,實時分析以及影象處理。

迭代式機器學習演算法

伯克利大學的研究人員提出了一種替代方案:Spark(Zaharia
等,2010年)——也就是說,在大資料領域,Spark被視為是替換Hadoop的下一代資料處理的解決方案。Spark有別於Hadoop的關鍵思想在於它的記憶體計算,這使得資料可以在不同的迭代和互動間快取在記憶體裡。研發Spark的主要原因是,常用的MR方法,只適用於那些可以表示成無環資料流的應用程式,並不適用於其它程式,比如那些在迭代中需要重用工作集的應用。因此他們提出了這種新的叢集計算的方法,它不僅能提供和MR類似的保證性和容錯性,並且能同時支援迭代式及非迭代式應用。伯克利的研究人員提出了一套技術方案叫作BDAS,它可以在叢集的不同節點間執行資料分析的任務。BDAS中最底層的元件叫做Mesos,這是個叢集管理器,它會進行任務分配以及叢集任務的資源管理。第二個元件是基於Mesos構建的Tachyon檔案系統 。Tachyon提供了一個分散式檔案系統的抽象以及在叢集間進行檔案操作的介面。在實際的實施方案中,作為運算工具的Spark,是基於Tachyon和Mesos來實現的,儘管不用Tachyon,甚至是不用Mesos也可以實現。而在Spark基礎上實現的Shark,則提供了叢集層面的結構化查詢語言的抽象——這和Hive在Hadoop之上提供的抽象是一樣的。Zacharia
等人在他們的文章中對Spark進行了探索,這是實現機器學習演算法的重要組成部分。

HaLoop(Bu等人,2010)也擴充套件了Hadoop來實現機器學習演算法——它不僅為迭代式應用的表示提供了一層程式設計抽象,同時還使用了快取的概念來進行迭代間的資料共享,以及對定點進行校驗,從而提高了效率。Twister( http://iterativemapreduce.org )是類似HaLoop的一個產品。

實時分析

實時分析是超越Hadoop考慮的第二個維度。來自Twitter的Storm(感覺原文說反了)是這一領域的最有力的競爭者。Storm是一個可擴充套件的複雜事件處理引擎,它使得基於事件流的實時複雜運算成為了可能。一個Storm叢集的元件包括:

  • Spout,用於從不同的資料來源中讀取資料。有HDFS型別的spout,Kafka型別的spout,以及TCP流的spout。
  • Bolt,它用於資料處理。它們在流上進行運算。基於流的機器學習演算法通常都在這裡執行。
  • 拓撲。這是具體應用特定的spout和bolt的一個整合——拓撲運行於叢集的節點上。

在實踐中,一個架構如果同時包含了Kafka(來自LinkedIn的一個分散式佇列系統)叢集來作為高速的資料提取器,以及Storm叢集來進行處理或者分析,它的表現會非常不錯,Kafka spout用來快速地從Kafka叢集中讀取資料。Kafka叢集將事件儲存在佇列中。由於Storm叢集正忙於進行機器學習,因此這麼做是很有必要 的。本書的後續章節將會對這個架構進行詳細的介紹,以及在Storm叢集中執行機器學習演算法所需的步驟。Storm也被拿來跟實時計算領域的其它競爭者進行比較,包括Yahoo的S4以及Typesafe的Akka。