1. 程式人生 > >一文讀懂機器學習,大資料/自然語言處理/演算法全有了……

一文讀懂機器學習,大資料/自然語言處理/演算法全有了……

作者注:本文生動形象,深入淺出的方式介紹了機器學習及其它演算法,適合新人和想更加了解機器學習的讀者閱讀,此文屬於轉載,下面連結是原文出處,我們尊重原作者的版權保護。

https://www.cnblogs.com/donaldlee2008/p/5224325.html

  在本篇文章中,我將對機器學習做個概要的介紹。本文的目的是能讓即便完全不瞭解機器學習的人也能瞭解機器學習,並且上手相關的實踐。這篇文件也算是EasyPR開發的番外篇,從這裡開始,必須對機器學習瞭解才能進一步介紹EasyPR的核心。當然,本文也面對一般讀者,不會對閱讀有相關的前提要求。

  在進入正題前,我想讀者心中可能會有一個疑惑:機器學習有什麼重要性,以至於要閱讀完這篇非常長的文章呢?

  我並不直接回答這個問題前。相反,我想請大家看兩張圖,下圖是圖一:


 圖1 機器學習界的執牛耳者與網際網路界的大鱷的聯姻  

這幅圖上上的三人是當今機器學習界的執牛耳者。中間的是Geoffrey Hinton, 加拿大多倫多大學的教授,如今被聘為“Google大腦”的負責人。右邊的是Yann LeCun, 紐約大學教授,如今是Facebook人工智慧實驗室的主任。而左邊的大家都很熟悉,Andrew Ng,中文名吳恩達,斯坦福大學副教授,如今也是“百度大腦”的負責人與百度首席科學家。這三位都是目前業界炙手可熱的大牛,被網際網路界大鱷求賢若渴的聘請,足見他們的重要性。而他們的研究方向,則全部都是機器學習的子類--深度學習。

  下圖是圖二:

圖2 語音助手產品

  這幅圖上描述的是什麼?Windows Phone上的語音助手Cortana,名字來源於《光環》中士官長的助手。相比其他競爭對手,微軟很遲才推出這個服務。Cortana背後的核心技術是什麼,為什麼它能夠聽懂人的語音?事實上,這個技術正是機器學習。機器學習是所有語音助手產品(包括Apple的siri與Google的Now)能夠跟人互動的關鍵技術。

  通過上面兩圖,我相信大家可以看出機器學習似乎是一個很重要的,有很多未知特性的技術。學習它似乎是一件有趣的任務。實際上,學習機器學習不僅可以幫助我們瞭解網際網路界最新的趨勢,同時也可以知道伴隨我們的便利服務的實現技術。

  機器學習是什麼,為什麼它能有這麼大的魔力,這些問題正是本文要回答的。同時,本文叫做“從機器學習談起”,因此會以漫談的形式介紹跟機器學習相關的所有內容,包括學科(如資料探勘、計算機視覺等),演算法(神經網路,svm)等等。本文的主要目錄如下:

  1.

一個故事說明什麼是機器學習

  2.機器學習的定義

  3.機器學習的範圍

  4.機器學習的方法

  5.機器學習的應用--大資料

  6.機器學習的子類--深度學習

  7.機器學習的父類--人工智慧

  8.機器學習的思考--計算機的潛意識

  9.總結

  10.後記

1.一個故事說明什麼是機器學習

  機器學習這個詞是讓人疑惑的,首先它是英文名稱Machine Learning(簡稱ML)的直譯,在計算界Machine一般指計算機。這個名字使用了擬人的手法,說明了這門技術是讓機器“學習”的技術。但是計算機是死的,怎麼可能像人類一樣“學習”呢?

  傳統上如果我們想讓計算機工作,我們給它一串指令,然後它遵照這個指令一步步執行下去。有因有果,非常明確。但這樣的方式在機器學習中行不通。機器學習根本不接受你輸入的指令,相反,它接受你輸入的資料! 也就是說,機器學習是一種讓計算機利用資料而不是指令來進行各種工作的方法。這聽起來非常不可思議,但結果上卻是非常可行的。“統計”思想將在你學習“機器學習”相關理念時無時無刻不伴隨,相關而不是因果的概念將是支撐機器學習能夠工作的核心概念。你會顛覆對你以前所有程式中建立的因果無處不在的根本理念。

  下面我通過一個故事來簡單地闡明什麼是機器學習。這個故事比較適合用在知乎上作為一個概念的闡明。在這裡,這個故事沒有展開,但相關內容與核心是存在的。如果你想簡單的瞭解一下什麼是機器學習,那麼看完這個故事就足夠了。如果你想了解機器學習的更多知識以及與它關聯緊密的當代技術,那麼請你繼續往下看,後面有更多的豐富的內容。

  這個例子來源於我真實的生活經驗,我在思考這個問題的時候突然發現它的過程可以被擴充化為一個完整的機器學習的過程,因此我決定使用這個例子作為所有介紹的開始。這個故事稱為“等人問題”。

  我相信大家都有跟別人相約,然後等人的經歷。現實中不是每個人都那麼守時的,於是當你碰到一些愛遲到的人,你的時間不可避免的要浪費。我就碰到過這樣的一個例子。

  對我的一個朋友小Y而言,他就不是那麼守時,最常見的表現是他經常遲到。當有一次我跟他約好3點鐘在某個麥當勞見面時,在我出門的那一刻我突然想到一個問題:我現在出發合適麼?我會不會又到了地點後,花上30分鐘去等他?我決定採取一個策略解決這個問題。

  要想解決這個問題,有好幾種方法。第一種方法是採用知識:我搜尋能夠解決這個問題的知識。但很遺憾,沒有人會把如何等人這個問題作為知識傳授,因此我不可能找到已有的知識能夠解決這個問題。第二種方法是問他人:我去詢問他人獲得解決這個問題的能力。但是同樣的,這個問題沒有人能夠解答,因為可能沒人碰上跟我一樣的情況。第三種方法是準則法:我問自己的內心,我有否設立過什麼準則去面對這個問題?例如,無論別人如何,我都會守時到達。但我不是個死板的人,我沒有設立過這樣的規則。

  事實上,我相信有種方法比以上三種都合適。我把過往跟小Y相約的經歷在腦海中重現一下,看看跟他相約的次數中,遲到佔了多大的比例。而我利用這來預測他這次遲到的可能性。如果這個值超出了我心裡的某個界限,那我選擇等一會再出發。假設我跟小Y約過5次,他遲到的次數是1次,那麼他按時到的比例為80%,我心中的閾值為70%,我認為這次小Y應該不會遲到,因此我按時出門。如果小Y在5次遲到的次數中佔了4次,也就是他按時到達的比例為20%,由於這個值低於我的閾值,因此我選擇推遲出門的時間。這個方法從它的利用層面來看,又稱為經驗法。在經驗法的思考過程中,我事實上利用了以往所有相約的資料。因此也可以稱之為依據資料做的判斷。

  依據資料所做的判斷跟機器學習的思想根本上是一致的。

  剛才的思考過程我只考慮“頻次”這種屬性。在真實的機器學習中,這可能都不算是一個應用。一般的機器學習模型至少考慮兩個量:一個是因變數,也就是我們希望預測的結果,在這個例子裡就是小Y遲到與否的判斷。另一個是自變數,也就是用來預測小Y是否遲到的量。假設我把時間作為自變數,譬如我發現小Y所有遲到的日子基本都是星期五,而在非星期五情況下他基本不遲到。於是我可以建立一個模型,來模擬小Y遲到與否跟日子是否是星期五的概率。見下圖:

圖3 決策樹模型

  這樣的圖就是一個最簡單的機器學習模型,稱之為決策樹。

  當我們考慮的自變數只有一個時,情況較為簡單。如果把我們的自變數再增加一個。例如小Y遲到的部分情況時是在他開車過來的時候(你可以理解為他開車水平較臭,或者路較堵)。於是我可以關聯考慮這些資訊。建立一個更復雜的模型,這個模型包含兩個自變數與一個因變數。

  再更復雜一點,小Y的遲到跟天氣也有一定的原因,例如下雨的時候,這時候我需要考慮三個自變數。

  如果我希望能夠預測小Y遲到的具體時間,我可以把他每次遲到的時間跟雨量的大小以及前面考慮的自變數統一建立一個模型。於是我的模型可以預測值,例如他大概會遲到幾分鐘。這樣可以幫助我更好的規劃我出門的時間。在這樣的情況下,決策樹就無法很好地支撐了,因為決策樹只能預測離散值。我們可以用節2所介紹的線型迴歸方法建立這個模型。

  如果我把這些建立模型的過程交給電腦。比如把所有的自變數和因變數輸入,然後讓計算機幫我生成一個模型,同時讓計算機根據我當前的情況,給出我是否需要遲出門,需要遲幾分鐘的建議。那麼計算機執行這些輔助決策的過程就是機器學習的過程。

  機器學習方法是計算機利用已有的資料(經驗),得出了某種模型(遲到的規律),並利用此模型預測未來(是否遲到)的一種方法。

  通過上面的分析,可以看出機器學習與人類思考的經驗過程是類似的,不過它能考慮更多的情況,執行更加複雜的計算。事實上,機器學習的一個主要目的就是把人類思考歸納經驗的過程轉化為計算機通過對資料的處理計算得出模型的過程。經過計算機得出的模型能夠以近似於人的方式解決很多靈活複雜的問題。

  下面,我會開始對機器學習的正式介紹,包括定義、範圍,方法、應用等等,都有所包含。

2.機器學習的定義

  從廣義上來說,機器學習是一種能夠賦予機器學習的能力以此讓它完成直接程式設計無法完成的功能的方法。但從實踐的意義上來說,機器學習是一種通過利用資料,訓練出模型,然後使用模型預測的一種方法。

  讓我們具體看一個例子。

圖4 房價的例子

  拿國民話題的房子來說。現在我手裡有一棟房子需要售賣,我應該給它標上多大的價格?房子的面積是100平方米,價格是100萬,120萬,還是140萬?

  很顯然,我希望獲得房價與面積的某種規律。那麼我該如何獲得這個規律?用報紙上的房價平均資料麼?還是參考別人面積相似的?無論哪種,似乎都並不是太靠譜。

  我現在希望獲得一個合理的,並且能夠最大程度的反映面積與房價關係的規律。於是我調查了周邊與我房型類似的一些房子,獲得一組資料。這組資料中包含了大大小小房子的面積與價格,如果我能從這組資料中找出面積與價格的規律,那麼我就可以得出房子的價格。

  對規律的尋找很簡單,擬合出一條直線,讓它“穿過”所有的點,並且與各個點的距離儘可能的小。

  通過這條直線,我獲得了一個能夠最佳反映房價與面積規律的規律。這條直線同時也是一個下式所表明的函式:

  房價 = 面積 * a + b

  上述中的a、b都是直線的引數。獲得這些引數以後,我就可以計算出房子的價格。

  假設a = 0.75,b = 50,則房價 = 100 * 0.75 + 50 = 125萬。這個結果與我前面所列的100萬,120萬,140萬都不一樣。由於這條直線綜合考慮了大部分的情況,因此從“統計”意義上來說,這是一個最合理的預測。

  在求解過程中透露出了兩個資訊:
  1.房價模型是根據擬合的函式型別決定的。如果是直線,那麼擬合出的就是直線方程。如果是其他型別的線,例如拋物線,那麼擬合出的就是拋物線方程。機器學習有眾多演算法,一些強力演算法可以擬合出複雜的非線性模型,用來反映一些不是直線所能表達的情況。
  2.如果我的資料越多,我的模型就越能夠考慮到越多的情況,由此對於新情況的預測效果可能就越好。這是機器學習界“資料為王”思想的一個體現。一般來說(不是絕對),資料越多,最後機器學習生成的模型預測的效果越好。

  通過我擬合直線的過程,我們可以對機器學習過程做一個完整的回顧。首先,我們需要在計算機中儲存歷史的資料。接著,我們將這些 資料通過機器學習演算法進行處理,這個過程在機器學習中叫做“訓練”,處理的結果可以被我們用來對新的資料進行預測,這個結果一般稱之為“模型”。對新資料 的預測過程在機器學習中叫做“預測”。“訓練”與“預測”是機器學習的兩個過程,“模型”則是過程的中間輸出結果,“訓練”產生“模型”,“模型”指導 “預測”。

  讓我們把機器學習的過程與人類對歷史經驗歸納的過程做個比對。

圖5 機器學習與人類思考的類比


  人類在成長、生活過程中積累了很多的歷史與經驗。人類定期地對這些經驗進行“歸納”,獲得了生活的“規律”。當人類遇到未知的問題或者需要對未來進行“推測”的時候,人類使用這些“規律”,對未知問題與未來進行“推測”,從而指導自己的生活和工作。

  機器學習中的“訓練”與“預測”過程可以對應到人類的“歸納”和“推測”過程。通過這樣的對應,我們可以發現,機器學習的思想並不複雜,僅僅是對人類在生活中學習成長的一個模擬。由於機器學習不是基於程式設計形成的結果,因此它的處理過程不是因果的邏輯,而是通過歸納思想得出的相關性結論。

   這也可以聯想到人類為什麼要學習歷史,歷史實際上是人類過往經驗的總結。有句話說得很好,“歷史往往不一樣,但歷史總是驚人的相似”。通過學習歷史,我們從歷史中歸納出人生與國家的規律,從而指導我們的下一步工作,這是具有莫大價值的。當代一些人忽視了歷史的本來價值,而是把其作為一種宣揚功績的手段,這其實是對歷史真實價值的一種誤用。

3.機器學習的範圍

  上文雖然說明了機器學習是什麼,但是並沒有給出機器學習的範圍。

  其實,機器學習跟模式識別,統計學習,資料探勘,計算機視覺,語音識別,自然語言處理等領域有著很深的聯絡。

  從範圍上來說,機器學習跟模式識別,統計學習,資料探勘是類似的,同時,機器學習與其他領域的處理技術的結合,形成了計算機視覺、語音識別、自然語言處理等交叉學科。因此,一般說資料探勘時,可以等同於說機器學習。同時,我們平常所說的機器學習應用,應該是通用的,不僅僅侷限在結構化資料,還有影象,音訊等應用。

  在這節對機器學習這些相關領域的介紹有助於我們理清機器學習的應用場景與研究範圍,更好的理解後面的演算法與應用層次。

  下圖是機器學習所牽扯的一些相關範圍的學科與研究領域。


圖6 機器學習與相關學科

  模式識別
  模式識別=機器學習。兩者的主要區別在於前者是從工業界發展起來的概念,後者則主要源自計算機學科。在著名的《Pattern Recognition And Machine Learning》這本書中,Christopher M. Bishop在開頭是這樣說的“模式識別源自工業界,而機器學習來自於計算機學科。不過,它們中的活動可以被視為同一個領域的兩個方面,同時在過去的10年間,它們都有了長足的發展”。
  
  資料探勘
  資料探勘=機器學習+資料庫。這幾年資料探勘的概念實在是太耳熟能詳。幾乎等同於炒作。但凡說資料探勘都會吹噓資料探勘如何如何,例如從資料中挖出金子,以及將廢棄的資料轉化為價值等等。但是,我儘管可能會挖出金子,但我也可能挖的是“石頭”啊。這個說法的意思是,資料探勘僅僅是一種思考方式,告訴我們應該嘗試從資料中挖掘出知識,但不是每個資料都能挖掘出金子的,所以不要神話它。一個系統絕對不會因為上了一個數據挖掘模組就變得無所不能(這是IBM最喜歡吹噓的),恰恰相反,一個擁有資料探勘思維的人員才是關鍵,而且他還必須對資料有深刻的認識,這樣才可能從資料中匯出模式指引業務的改善。大部分資料探勘中的演算法是機器學習的演算法在資料庫中的優化。

  統計學習
  統計學習近似等於機器學習。統計學習是個與機器學習高度重疊的學科。因為機器學習中的大多數方法來自統計學,甚至可以認為,統計學的發展促進機器學習的繁榮昌盛。例如著名的支援向量機演算法,就是源自統計學科。但是在某種程度上兩者是有分別的,這個分別在於:統計學習者重點關注的是統計模型的發展與優化,偏數學,而機器學習者更關注的是能夠解決問題,偏實踐,因此機器學習研究者會重點研究學習演算法在計算機上執行的效率與準確性的提升。
    
  計算機視覺
  計算機視覺=影象處理+機器學習。影象處理技術用於將影象處理為適合進入機器學習模型中的輸入,機器學習則負責從影象中識別出相關的模式。計算機視覺相關的應用非常的多,例如百度識圖、手寫字元識別、車牌識別等等應用。這個領域是應用前景非常火熱的,同時也是研究的熱門方向。隨著機器學習的新領域深度學習的發展,大大促進了計算機影象識別的效果,因此未來計算機視覺界的發展前景不可估量。
  
  語音識別
  語音識別=語音處理+機器學習。語音識別就是音訊處理技術與機器學習的結合。語音識別技術一般不會單獨使用,一般會結合自然語言處理的相關技術。目前的相關應用有蘋果的語音助手siri等。

  自然語言處理
  自然語言處理=文字處理+機器學習。自然語言處理技術主要是讓機器理解人類的語言的一門領域。在自然語言處理技術中,大量使用了編譯原理相關的技術,例如詞法分析,語法分析等等,除此之外,在理解這個層面,則使用了語義理解,機器學習等技術。作為唯一由人類自身創造的符號,自然語言處理一直是機器學習界不斷研究的方向。按照百度機器學習專家餘凱的說法“聽與看,說白了就是阿貓和阿狗都會的,而只有語言才是人類獨有的”。如何利用機器學習技術進行自然語言的的深度理解,一直是工業和學術界關注的焦點。

  可以看出機器學習在眾多領域的外延和應用。機器學習技術的發展促使了很多智慧領域的進步,改善著我們的生活。

4.機器學習的方法

  通過上節的介紹我們知曉了機器學習的大致範圍,那麼機器學習裡面究竟有多少經典的演算法呢?在這個部分我會簡要介紹一下機器學習中的經典代表方法。這部分介紹的重點是這些方法內涵的思想,數學與實踐細節不會在這討論。

  1、迴歸演算法

  在大部分機器學習課程中,迴歸演算法都是介紹的第一個演算法。原因有兩個:一.迴歸演算法比較簡單,介紹它可以讓人平滑地從統計學遷移到機器學習中。二.迴歸演算法是後面若干強大演算法的基石,如果不理解迴歸演算法,無法學習那些強大的演算法。迴歸演算法有兩個重要的子類:即線性迴歸和邏輯迴歸。

  線性迴歸就是我們前面說過的房價求解問題。如何擬合出一條直線最佳匹配我所有的資料?一般使用“最小二乘法”來求解。“最小二乘法”的思想是這樣的,假設我們擬合出的直線代表資料的真實值,而觀測到的資料代表擁有誤差的值。為了儘可能減小誤差的影響,需要求解一條直線使所有誤差的平方和最小。最小二乘法將最優問題轉化為求函式極值問題。函式極值在數學上我們一般會採用求導數為0的方法。但這種做法並不適合計算機,可能求解不出來,也可能計算量太大。

  電腦科學界專門有一個學科叫“數值計算”,專門用來提升計算機進行各類計算時的準確性和效率問題。例如,著名的“梯度下降”以及“牛頓法”就是數值計算中的經典演算法,也非常適合來處理求解函式極值的問題。梯度下降法是解決迴歸模型中最簡單且有效的方法之一。從嚴格意義上來說,由於後文中的神經網路和推薦演算法中都有線性迴歸的因子,因此梯度下降法在後面的演算法實現中也有應用。

  邏輯迴歸是一種與線性迴歸非常類似的演算法,但是,從本質上講,線型迴歸處理的問題型別與邏輯迴歸不一致。線性迴歸處理的是數值問題,也就是最後預測出的結果是數字,例如房價。而邏輯迴歸屬於分類演算法,也就是說,邏輯迴歸預測結果是離散的分類,例如判斷這封郵件是否是垃圾郵件,以及使用者是否會點選此廣告等等。

  實現方面的話,邏輯迴歸只是對對線性迴歸的計算結果加上了一個Sigmoid函式,將數值結果轉化為了0到1之間的概率(Sigmoid函式的影象一般來說並不直觀,你只需要理解對數值越大,函式越逼近1,數值越小,函式越逼近0),接著我們根據這個概率可以做預測,例如概率大於0.5,則這封郵件就是垃圾郵件,或者腫瘤是否是惡性的等等。從直觀上來說,邏輯迴歸是畫出了一條分類線,見下圖。


  圖7 邏輯迴歸的直觀解釋

  假設我們有一組腫瘤患者的資料,這些患者的腫瘤中有些是良性的(圖中的藍色點),有些是惡性的(圖中的紅色點)。這裡腫瘤的紅藍色可以被稱作資料的“標籤”。同時每個資料包括兩個“特徵”:患者的年齡與腫瘤的大小。我們將這兩個特徵與標籤對映到這個二維空間上,形成了我上圖的資料。

  當我有一個綠色的點時,我該判斷這個腫瘤是惡性的還是良性的呢?根據紅藍點我們訓練出了一個邏輯迴歸模型,也就是圖中的分類線。這時,根據綠點出現在分類線的左側,因此我們判斷它的標籤應該是紅色,也就是說屬於惡性腫瘤。

  邏輯迴歸演算法劃出的分類線基本都是線性的(也有劃出非線性分類線的邏輯迴歸,不過那樣的模型在處理資料量較大的時候效率會很低),這意味著當兩類之間的界線不是線性時,邏輯迴歸的表達能力就不足。下面的兩個演算法是機器學習界最強大且重要的演算法,都可以擬合出非線性的分類線。

  2、神經網路

  神經網路(也稱之為人工神經網路,ANN)演算法是80年代機器學習界非常流行的演算法,不過在90年代中途衰落。現在,攜著“深度學習”之勢,神經網路重灌歸來,重新成為最強大的機器學習演算法之一。

  神經網路的誕生起源於對大腦工作機理的研究。早期生物界學者們使用神經網路來模擬大腦。機器學習的學者們使用神經網路進行機器學習的實驗,發現在視覺與語音的識別上效果都相當好。在BP演算法(加速神經網路訓練過程的數值演算法)誕生以後,神經網路的發展進入了一個熱潮。BP演算法的發明人之一是前面介紹的機器學習大牛Geoffrey Hinton(圖1中的中間者)。

  具體說來,神經網路的學習機理是什麼?簡單來說,就是分解與整合。在著名的Hubel-Wiesel試驗中,學者們研究貓的視覺分析機理是這樣的。



   圖8 Hubel-Wiesel試驗與大腦視覺機理

  比方說,一個正方形,分解為四個折線進入視覺處理的下一層中。四個神經元分別處理一個折線。每個折線再繼續被分解為兩條直線,每條直線再被分解為黑白兩個面。於是,一個複雜的影象變成了大量的細節進入神經元,神經元處理以後再進行整合,最後得出了看到的是正方形的結論。這就是大腦視覺識別的機理,也是神經網路工作的機理。

  讓我們看一個簡單的神經網路的邏輯架構。在這個網路中,分成輸入層,隱藏層,和輸出層。輸入層負責接收訊號,隱藏層負責對資料的分解與處理,最後的結果被整合到輸出層。每層中的一個圓代表一個處理單元,可以認為是模擬了一個神經元,若干個處理單元組成了一個層,若干個層再組成了一個網路,也就是"神經網路"。


圖9 神經網路的邏輯架構


  在神經網路中,每個處理單元事實上就是一個邏輯迴歸模型,邏輯迴歸模型接收上層的輸入,把模型的預測結果作為輸出傳輸到下一個層次。通過這樣的過程,神經網路可以完成非常複雜的非線性分類。

  下圖會演示神經網路在影象識別領域的一個著名應用,這個程式叫做LeNet,是一個基於多個隱層構建的神經網路。通過LeNet可以識別多種手寫數字,並且達到很高的識別精度與擁有較好的魯棒性。

圖10 LeNet的效果展示

  右下方的方形中顯示的是輸入計算機的影象,方形上方的紅色字樣“answer”後面顯示的是計算機的輸出。左邊的三條豎直的影象列顯示的是神經網路中三個隱藏層的輸出,可以看出,隨著層次的不斷深入,越深的層次處理的細節越低,例如層3基本處理的都已經是線的細節了。LeNet的發明人就是前文介紹過的機器學習的大牛Yann LeCun(圖1右者)。

  進入90年代,神經網路的發展進入了一個瓶頸期。其主要原因是儘管有BP演算法的加速,神經網路的訓練過程仍然很困難。因此90年代後期支援向量機(SVM)演算法取代了神經網路的地位。

  3、SVM(支援向量機)

  支援向量機演算法是誕生於統計學習界,同時在機器學習界大放光彩的經典演算法。

  支援向量機演算法從某種意義上來說是邏輯迴歸演算法的強化:通過給予邏輯迴歸演算法更嚴格的優化條件,支援向量機演算法可以獲得比邏輯迴歸更好的分類界線。但是如果沒有某類函式技術,則支援向量機演算法最多算是一種更好的線性分類技術。

  但是,通過跟高斯“核”的結合,支援向量機可以表達出非常複雜的分類界線,從而達成很好的的分類效果。“核”事實上就是一種特殊的函式,最典型的特徵就是可以將低維的空間對映到高維的空間。

  例如下圖所示:

          

圖11 支援向量機圖例


  我們如何在二維平面劃分出一個圓形的分類界線?在二維平面可能會很困難,但是通過“核”可以將二維空間對映到三維空間,然後使用一個線性平面就可以達成類似效果。也就是說,二維平面劃分出的非線性分類界線可以等價於三維平面的線性分類界線。於是,我們可以通過在三維空間中進行簡單的線性劃分就可以達到在二維平面中的非線性劃分效果。

圖12 三維空間的切割


  支援向量機是一種數學成分很濃的機器學習演算法(相對的,神經網路則有生物科學成分)。在演算法的核心步驟中,有一步證明,即將資料從低維對映到高維不會帶來最後計算複雜性的提升。於是,通過支援向量機演算法,既可以保持計算效率,又可以獲得非常好的分類效果。因此支援向量機在90年代後期一直佔據著機器學習中最核心的地位,基本取代了神經網路演算法。直到現在神經網路藉著深度學習重新興起,兩者之間才又發生了微妙的平衡轉變。

  4、聚類演算法

  前面的演算法中的一個顯著特徵就是我的訓練資料中包含了標籤,訓練出的模型可以對其他未知資料預測標籤。在下面的演算法中,訓練資料都是不含標籤的,而演算法的目的則是通過訓練,推測出這些資料的標籤。這類演算法有一個統稱,即無監督演算法(前面有標籤的資料的演算法則是有監督演算法)。無監督演算法中最典型的代表就是聚類演算法。

  讓我們還是拿一個二維的資料來說,某一個數據包含兩個特徵。我希望通過聚類演算法,給他們中不同的種類打上標籤,我該怎麼做呢?簡單來說,聚類演算法就是計算種群中的距離,根據距離的遠近將資料劃分為多個族群。

  聚類演算法中最典型的代表就是K-Means演算法。

  5、降維演算法

  降維演算法也是一種無監督學習演算法,其主要特徵是將資料從高維降低到低維層次。在這裡,維度其實表示的是資料的特徵量的大小,例如,房價包含房子的長、寬、面積與房間數量四個特徵,也就是維度為4維的資料。可以看出來,長與寬事實上與面積表示的資訊重疊了,例如面積=長 × 寬。通過降維演算法我們就可以去除冗餘資訊,將特徵減少為面積與房間數量兩個特徵,即從4維的資料壓縮到2維。於是我們將資料從高維降低到低維,不僅利於表示,同時在計算上也能帶來加速。

  剛才說的降維過程中減少的維度屬於肉眼可視的層次,同時壓縮也不會帶來資訊的損失(因為資訊冗餘了)。如果肉眼不可視,或者沒有冗餘的特徵,降維演算法也能工作,不過這樣會帶來一些資訊的損失。但是,降維演算法可以從數學上證明,從高維壓縮到的低維中最大程度地保留了資料的資訊。因此,使用降維演算法仍然有很多的好處。

  降維演算法的主要作用是壓縮資料與提升機器學習其他演算法的效率。通過降維演算法,可以將具有幾千個特徵的資料壓縮至若干個特徵。另外,降維演算法的另一個好處是資料的視覺化,例如將5維的資料壓縮至2維,然後可以用二維平面來可視。降維演算法的主要代表是PCA演算法(即主成分分析演算法)。

  6、推薦演算法

  推薦演算法是目前業界非常火的一種演算法,在電商界,如亞馬遜,天貓,京東等得到了廣泛的運用。推薦演算法的主要特徵就是可以自動向使用者推薦他們最感興趣的東西,從而增加購買率,提升效益。推薦演算法有兩個主要的類別:

  一類是基於物品內容的推薦,是將與使用者購買的內容近似的物品推薦給使用者,這樣的前提是每個物品都得有若干個標籤,因此才可以找出與使用者購買物品類似的物品,這樣推薦的好處是關聯程度較大,但是由於每個物品都需要貼標籤,因此工作量較大。

  另一類是基於使用者相似度的推薦,則是將與目標使用者興趣相同的其他使用者購買的東西推薦給目標使用者,例如小A歷史上買了物品B和C,經過演算法分析,發現另一個與小A近似的使用者小D購買了物品E,於是將物品E推薦給小A。

  兩類推薦都有各自的優缺點,在一般的電商應用中,一般是兩類混合使用。推薦演算法中最有名的演算法就是協同過濾演算法。

  7、其他

  除了以上演算法之外,機器學習界還有其他的如高斯判別,樸素貝葉斯,決策樹等等演算法。但是上面列的六個演算法是使用最多,影響最廣,種類最全的典型。機器學習界的一個特色就是演算法眾多,發展百花齊放。

  下面做一個總結,按照訓練的資料有無標籤,可以將上面演算法分為監督學習演算法和無監督學習演算法,但推薦演算法較為特殊,既不屬於監督學習,也不屬於非監督學習,是單獨的一類。

  監督學習演算法:
  線性迴歸,邏輯迴歸,神經網路,SVM

  無監督學習演算法:
  聚類演算法,降維演算法

  特殊演算法:
  推薦演算法

  除了這些演算法以外,有一些演算法的名字在機器學習領域中也經常出現。但他們本身並不算是一個機器學習演算法,而是為了解決某個子問題而誕生的。你可以理解他們為以上演算法的子演算法,用於大幅度提高訓練過程。其中的代表有:梯度下降法,主要運用線上型迴歸,邏輯迴歸,神經網路,推薦演算法中;牛頓法,主要運用線上型迴歸中;BP演算法,主要運用在神經網路中;SMO演算法,主要運用在SVM中。


5.機器學習的應用--大資料

  說完機器學習的方法,下面要談一談機器學習的應用了。無疑,在2010年以前,機器學習的應用在某些特定領域發揮了巨大的作用,如車牌識別,網路攻擊防範,手寫字元識別等等。但是,從2010年以後,隨著大資料概念的興起,機器學習大量的應用都與大資料高度耦合,幾乎可以認為大資料是機器學習應用的最佳場景。

  譬如,但凡你能找到的介紹大資料魔力的文章,都會說大資料如何準確準確預測到了某些事。例如經典的Google利用大資料預測了H1N1在美國某小鎮的爆發。

 

圖13 Google成功預測H1N1


  百度預測2014年世界盃,從淘汰賽到決賽全部預測正確。

圖14 百度世界盃成功預測了所有比賽結果

  這些實在太神奇了,那麼究竟是什麼原因導致大資料具有這些魔力的呢?簡單來說,就是機器學習技術。正是基於機器學習技術的應用,資料才能發揮其魔力。

  大資料的核心是利用資料的價值,機器學習是利用資料價值的關鍵技術,對於大資料而言,機器學習是不可或缺的。相反,對於機器學習而言,越多的資料會越 可能提升模型的精確性,同時,複雜的機器學習演算法的計算時間也迫切需要分散式計算與記憶體計算這樣的關鍵技術。因此,機器學習的興盛也離不開大資料的幫助。 大資料與機器學習兩者是互相促進,相依相存的關係。

  機器學習與大資料緊密聯絡。但是,必須清醒的認識到,大資料並不等同於機器學習,同理,機器學習也不等同於大資料。大資料中包含有分散式計算,記憶體資料庫,多維分析等等多種技術。單從分析方法來看,大資料也包含以下四種分析方法:

  1.大資料,小分析:即資料倉庫領域的OLAP分析思路,也就是多維分析思想。
  2.大資料,大分析:這個代表的就是資料探勘與機器學習分析法。
  3.流式分析:這個主要指的是事件驅動架構。
  4.查詢分析:經典代表是NoSQL資料庫。

  也就是說,機器學習僅僅是大資料分析中的一種而已。儘管機器學習的一些結果具有很大的魔力,在某種場合下是大資料價值最好的說明。但這並不代表機器學習是大資料下的唯一的分析方法。

  機器學習與大資料的結合產生了巨大的價值。基於機器學習技術的發展,資料能夠“預測”。對人類而言,積累的經驗越豐富,閱歷也廣泛,對未來的判斷越準確。例如常說的“經驗豐富”的人比“初出茅廬”的小夥子更有工作上的優勢,就在於經驗豐富的人獲得的規律比他人更準確。而在機器學習領域,根據著名的一個實驗,有效的證實了機器學習界一個理論:即機器學習模型的資料越多,機器學習的預測的效率就越好。見下圖:

圖15 機器學習準確率與資料的關係

  通過這張圖可以看出,各種不同演算法在輸入的資料量達到一定級數後,都有相近的高準確度。於是誕生了機器學習界的名言:成功的機器學習應用不是擁有最好的演算法,而是擁有最多的資料!

  在大資料的時代,有好多優勢促使機器學習能夠應用更廣泛。例如隨著物聯網和移動裝置的發展,我們擁有的資料越來越多,種類也包括圖片、文字、視訊等非結構化資料,這使得機器學習模型可以獲得越來越多的資料。同時大資料技術中的分散式計算Map-Reduce使得機器學習的速度越來越快,可以更方便的使用。種種優勢使得在大資料時代,機器學習的優勢可以得到最佳的發揮。

6.機器學習的子類--深度學習

  近來,機器學習的發展產生了一個新的方向,即“深度學習”。

  雖然深度學習這四字聽起來頗為高大上,但其理念卻非常簡單,就是傳統的神經網路發展到了多隱藏層的情況。

  在上文介紹過,自從90年代以後,神經網路已經消寂了一段時間。但是BP演算法的發明人Geoffrey Hinton一直沒有放棄對神經網路的研究。由於神經網路在隱藏層擴大到兩個以上,其訓練速度就會非常慢,因此實用性一直低於支援向量機。2006年,Geoffrey Hinton在科學雜誌《Science》上發表了一篇文章,論證了兩個觀點:

  1.多隱層的神經網路具有優異的特徵學習能力,學習得到的特徵對資料有更本質的刻畫,從而有利於視覺化或分類;

  2.深度神經網路在訓練上的難度,可以通過“逐層初始化” 來有效克服。



圖16 Geoffrey Hinton與他的學生在Science上發表文章

  通過這樣的發現,不僅解決了神經網路在計算上的難度,同時也說明了深層神經網路在學習上的優異性。從此,神經網路重新成為了機器學習界中的主流強大學習技術。同時,具有多個隱藏層的神經網路被稱為深度神經網路,基於深度神經網路的學習研究稱之為深度學習。

  由於深度學習的重要性質,在各方面都取得極大的關注,按照時間軸排序,有以下四個標誌性事件值得一說:

  2012年6月,《紐約時報》披露了Google Brain專案,這個專案是由Andrew Ng和Map-Reduce發明人Jeff Dean共同主導,用16000個CPU Core的平行計算平臺訓練一種稱為“深層神經網路”的機器學習模型,在語音識別和影象識別等領域獲得了巨大的成功。Andrew Ng就是文章開始所介紹的機器學習的大牛(圖1中左者)。

  2012年11月,微軟在中國天津的一次活動上公開演示了一個全自動的同聲傳譯系統,講演者用英文演講,後臺的計算機一氣呵成自動完成語音識別、英中機器翻譯,以及中文語音合成,效果非常流暢,其中支撐的關鍵技術是深度學習;

  2013年1月,在百度的年會上,創始人兼CEO李彥巨集高調宣佈要成立百度研究院,其中第一個重點方向就是深度學習,併為此而成立深度學習研究院(IDL)。

  2013年4月,《麻省理工學院技術評論》雜誌將深度學習列為2013年十大突破性技術(Breakthrough Technology)之首。

圖17 深度學習的發展熱潮

  文章開頭所列的三位機器學習的大牛,不僅都是機器學習界的專家,更是深度學習研究領域的先驅。因此,使他們擔任各個大型網際網路公司技術掌舵者的原因不僅在於他們的技術實力,更在於他們研究的領域是前景無限的深度學習技術。

  目前業界許多的影象識別技術與語音識別技術的進步都源於深度學習的發展,除了本文開頭所提的Cortana等語音助手,還包括一些影象識別應用,其中典型的代表就是下圖的百度識圖功能。

圖18 百度識圖

  深度學習屬於機器學習的子類。基於深度學習的發展極大的促進了機器學習的地位提高,更進一步地,推動了業界對機器學習父類人工智慧夢想的再次重視。

7.機器學習的父類--人工智慧

  人工智慧是機器學習的父類。深度學習則是機器學習的子類。如果把三者的關係用圖來表明的話,則是下圖:


圖19 深度學習、機器學習、人工智慧三者關係

相關推薦

[轉]機器學習科普文章:“機器學習資料/自然語言處理/演算法

       在本篇文章中,我將對機器學習做個概要的介紹。本文的目的是能讓即便完全不瞭解機器學習的人也能瞭解機器學習,並且上手相關的實 踐。這篇文件也算是EasyPR開發的番外篇,從這裡開始,必須對機器學習瞭解才能進一步介紹EasyPR的核心。當然,本文也面對一般讀者,不會對

機器學習資料/自然語言處理/演算法……

作者注:本文生動形象,深入淺出的方式介紹了機器學習及其它演算法,適合新人和想更加了解機器學習的讀者閱讀,此文屬於轉載,下面連結是原文出處,我們尊重原作者的版權保護。https://www.cnblogs.com/donaldlee2008/p/5224325.html  在本

機器學習殺器XGBoost原理

結構 近似算法 機器 form con gin fff .cn tran http://blog.itpub.net/31542119/viewspace-2199549/ XGBoost是boosting算法的其中一種。Boosting算法的思想是將許多弱分類器集成在

獨家總結 | 機器學習的“發展歷程” (時間歷程詳細又充實!)

機器學習是人工智慧AI研究發展到一定階段的必然產物! 二十世紀五十年代~七十年代初,“推理期”:機器的只能體現在具有邏輯推理能力。 二十世紀七十年代中期開始,AI進入“知識期”,希望機器能夠自己學習! 其實,圖靈1950年就曾提到過機器學習的可能 五十年代中後期,基於神經網路的“連線

【深度學習機器學習常用損失函數(Loss Function)

back and 們的 wiki 導出 歐氏距離 classes 自變量 關於 最近太忙已經好久沒有寫博客了,今天整理分享一篇關於損失函數的文章吧,以前對損失函數的理解不夠深入,沒有真正理解每個損失函數的特點以及應用範圍,如果文中有任何錯誤,請各位朋友指教,謝謝~

機器學習機器學習常用損失函式

損失函式(loss function)是用來估量模型的預測值f(x)與真實值Y的不一致程度,它是一個非負實值函式,通常使用L(Y, f(x))來表示,損失函式越小,模型的魯棒性就越好。損失函式是經驗風險函式的核心部分,也是結構風險函式重要組成部分。模型的結構風險函式包括了經驗風險項和正則項,通常可以

機器學習資料科學、深度學習和統計學之間的區別

  明晰了資料科學家所具有的不同角色,以及資料科學與機器學習、深度學習、人工智慧、統計學等領域的區別。這些概念的區別也一直是人工智慧領域熱烈討論的一個話題,Quora、多個技術部落格都曾有過解答。機器之心之前編譯的一篇文章《人工智慧、機器學習、深度學習,三者之間的同心圓關係》也對此問題進行了探討,但似乎業內

雲端計算、資料、人工智慧

最近我們和美國的“貿易戰”打的是如火如荼,這位“推特治國”的川普總統總是給人一種“政治嬰兒,商業天才”的感覺,貿易戰的目的有很大一部分被認為是遏制“中國製造2025”。中國製造2025是一系列巨集偉的計劃,能夠使中國完成民族復興,其中重點發展領域就是資訊科技相關的創新產業,具

深度學習機器學習的差異

作者:oschina 如果你經常想讓自己弄清楚機器學習和深度學習的區別,閱讀該文章,我將用通俗易懂的語言為你介紹他們之間的差別。機器學習和深度學習變得越來越火。突然之間,不管是瞭解的還是不瞭解的,所有人都在談論機器學習和深度學習。無論你是否主動關注過資料科學,你

乾貨丨深度學習(附學習資源據說點贊2W+)

文章來源:新智元 人工智慧(AI)和機器學習(ML)都屬於目前最熱門的話題。 在日常生活中,AI這個術語我們隨處可見。你或許會從立志高遠的開發者那裡聽說她(他)們想要學習AI。你又或許會從運營者那裡聽到他們想要在他們的的服務中實施AI。但往往這些人中的絕大多數都並不明白什麼是AI。 在你閱讀

機器學習流程(客戶流失率預測)

本文轉自:https://my.oschina.net/sizhe/blog/1594791 1 定義問題 客戶流失率問題是電信運營商面臨得一項重要課題,也是一個較為流行的案例。根據測算,招攬新的客戶比保留住既有客戶的花費大得多(通常5-20倍的差距)。因此,如何保留住

獨家 | 整合學習(附學習資源)

摘要: 整合演算法(Ensemble Algorithms)綜述 嚴格意義上來說,這不算是一種機器學習演算法,而更像是一種優化手段或者策略,它通常是結合多個簡單的弱機器學習演算法,去做更可靠的決策。有人把它稱為機器學習中的“屠龍刀”,非常萬能且有效,整合模型是一種能在各種

監督學習、無監督學習、半監督學習、強化學習這四種深度學習方式

 一般說來,訓練深度學習網路的方式主要有四種:監督、無監督、半監督和強化學習。在接下來的文章中,計算機視覺戰隊將逐個解釋這些方法背後所蘊含的理論知識。除此之外,計算機視覺戰隊將分享文獻中經常碰到的術語,並提供與數學相關的更多資源。 監督學習(Supervised

深度學習,將深度學習拉下神壇

首先講一下我的經歷,本科,以前幹java後端的,深度學習實習兩個月,現在正式做深度學習快一年了,我之所以說這些就是要說明深度學習不是天書。順便駁斥那些所謂的大牛張口閉口高等數學,線性代數,凸優化之類的云云,我想說的是深度學習裡面用到的數學超過了60分水平了嗎?你們工作中真的天天求導,天天梯度下降嗎?今天我就用

遷移學習和預訓練

轉載:https://zhuanlan.zhihu.com/p/27657264 引言 跟傳統的監督式機器學習演算法相比,深度神經網路目前最大的劣勢是什麼? 貴。 尤其是當我們在嘗試處理現實生活中諸如影象識別、聲音辨識等實際問題的時候。一旦你的模型中包含一些隱藏層時,增

深度學習:從神經元到BERT

阿里妹導讀:自然語言處理領域的殿堂標誌 BERT 並非橫空出世,背後有它的發展原理。今天,螞蟻金服財富對話演算法團隊整理對比

機器學習資料深度學習 競賽網站學習網站演算法刷題網站

資料競賽類網站 Kaggle 阿里巴巴天池大資料比賽 DataCastle CCF大資料與計算智慧大賽 DataFountain Di-Tech演算法大賽 KDD-Cup KDnuggets Competition 全國高校雲端計算應用創

推薦 :R中的探索性資料分析(附R程式碼)

作者:Pablo Casas;翻譯:蔣雨暢;校對:車前子;本文約1500字,建議閱讀7分鐘。本文

機器學習01】機器學習資料雲端計算再不學就out

什麼是機器學習 利用計算機從歷史資料中找出規律,並把這些規律用到對未來不確定場景的決策 從這句話我們知道2點: 他是一種解決未來不確定因素的方法工具【比如公司明年的銷量情況】 通過什麼樣的手段呢,計算機挖出的歷史資料規律【有兩種情況一種是機器挖–

Android TouchEvent 事件分發、攔截、處理過程

什麼是事件?事件是使用者觸控手機螢幕,引起的一系列TouchEvent,包括ACTION_DOWN、ACTION_MOVE、ACTION_UP、ACTION_CANCEL等,這些action組合後變成點選事件、長按事件等。 在這篇文章中,用打Log測試的方法來了解Android TouchEvent 事件分發