1. 程式人生 > >一張圖看懂AI、機器學習和深度學習的區別

一張圖看懂AI、機器學習和深度學習的區別

視覺 無限 into target 圖像 每一個 形狀 多倫多 智力

AI(人工智能)是未來,是科幻小說,是我們日常生活的一部分。所有論斷都是正確的,只是要看你所談到的AI到底是什麽。

  例如,當谷歌DeepMind開發的AlphaGo程序打敗韓國職業圍棋高手Lee Se-dol,媒體在描述DeepMind的勝利時用到了AI、機器學習、深度學習等術語。AlphaGo之所以打敗Lee Se-dol,這三項技術都立下了汗馬功勞,但它們並不是一回事。

  要搞清它們的關系,最直觀的表述方式就是同心圓,最先出現的是理念,然後是機器學習,當機器學習繁榮之後就出現了深度學習,今天的AI大爆發是由深度學習驅動的。

技術分享圖片

  從衰敗到繁榮

  1956年,在達特茅斯會議(Dartmouth Conferences)上,計算機科學家首次提出了“AI”術語,AI由此誕生,在隨後的日子裏,AI成為實驗室的“幻想對象”。幾十年過去了,人們對AI的看法不斷改變,有時會認為AI是預兆,是未來人類文明的關鍵,有時認為它只是技術垃圾,只是一個輕率的概念,野心過大,註定要失敗。坦白來講,直到2012年AI仍然同時具有這兩種特點。

  在過去幾年裏,AI大爆發,2015年至今更是發展迅猛。之所以飛速發展主要歸功於GPU的廣泛普及,它讓並行處理更快、更便宜、更強大。還有一個原因就是實際存儲容量無限拓展,數據大規模生成,比如圖片、文本、交易、地圖數據信息。

  AI:讓機器展現出人類智力

  回到1956年夏天,在當時的會議上,AI先驅的夢想是建造一臺復雜的機器(讓當時剛出現的計算機驅動),然後讓機器呈現出人類智力的特征。

  這一概念就是我們所說的“強人工智能(General AI)”,也就是打造一臺超棒的機器,讓它擁有人類的所有感知,甚至還可以超越人類感知,它可以像人一樣思考。在電影中我們經常會看到這種機器,比如 C-3PO、終結者。

  還有一個概念是“弱人工智能(Narrow AI)”。簡單來講,“弱人工智能”可以像人類一樣完成某些具體任務,有可能比人類做得更好,例如,Pinterest服務用AI給圖片分類,Facebook用AI識別臉部,這就是“弱人工智能”。

  上述例子是“弱人工智能”實際使用的案例,這些應用已經體現了一些人類智力的特點。怎樣實現的?這些智力來自何處?帶著問題我們深入理解,就來到下一個圓圈,它就是機器學習。

  機器學習:抵達AI目標的一條路徑

  大體來講,機器學習就是用算法真正解析數據,不斷學習,然後對世界中發生的事做出判斷和預測。此時,研究人員不會親手編寫軟件、確定特殊指令集、然後讓程序完成特殊任務,相反,研究人員會用大量數據和算法“訓練”機器,讓機器學會如何執行任務。

  機器學習這個概念是早期的AI研究者提出的,在過去幾年裏,機器學習出現了許多算法方法,包括決策樹學習、歸納邏輯程序設計、聚類分析(Clustering)、強化學習、貝葉斯網絡等。正如大家所知的,沒有人真正達到“強人工智能”的終極目標,采用早期機器學習方法,我們連“弱人工智能”的目標也遠沒有達到。

  在過去許多年裏,機器學習的最佳應用案例是“計算機視覺”,要實現計算機視覺,研究人員仍然需要手動編寫大量代碼才能完成任務。研究人員手動編寫分級器,比如邊緣檢測濾波器,只有這樣程序才能確定對象從哪裏開始,到哪裏結束;形狀偵測可以確定對象是否有8條邊;分類器可以識別字符“S-T-O-P”。通過手動編寫的分組器,研究人員可以開發出算法識別有意義的形象,然後學會下判斷,確定它不是一個停止標誌。

  這種辦法可以用,但並不是很好。如果是在霧天,當標誌的能見度比較低,或者一棵樹擋住了標誌的一部分,它的識別能力就會下降。直到不久之前,計算機視覺和圖像偵測技術還與人類的能力相去甚遠,因為它太容易出錯了。

  深度學習:實現機器學習的技術

  “人工神經網絡(Artificial Neural Networks)”是另一種算法方法,它也是早期機器學習專家提出的,存在已經幾十年了。神經網絡(Neural Networks)的構想源自於我們對人類大腦的理解——神經元的彼此聯系。二者也有不同之處,人類大腦的神經元按特定的物理距離連接的,人工神經網絡有獨立的層、連接,還有數據傳播方向。

  例如,你可能會抽取一張圖片,將它剪成許多塊,然後植入到神經網絡的第一層。第一層獨立神經元會將數據傳輸到第二層,第二層神經元也有自己的使命,一直持續下去,直到最後一層,並生成最終結果。

  每一個神經元會對輸入的信息進行權衡,確定權重,搞清它與所執行任務的關系,比如有多正確或者多麽不正確。最終的結果由所有權重來決定。以停止標誌為例,我們會將停止標誌圖片切割,讓神經元檢測,比如它的八角形形狀、紅色、與眾不同的字符、交通標誌尺寸、手勢等。

  神經網絡的任務就是給出結論:它到底是不是停止標誌。神經網絡會給出一個“概率向量”,它依賴於有根據的推測和權重。在該案例中,系統有86%的信心確定圖片是停止標誌,7%的信心確定它是限速標誌,有5%的信心確定它是一支風箏卡在樹上,等等。然後網絡架構會告訴神經網絡它的判斷是否正確。

  即使只是這麽簡單的一件事也是很超前的,不久前,AI研究社區還在回避神經網絡。在AI發展初期就已經存在神經網絡,但是它並沒有形成多少“智力”。問題在於即使只是基本的神經網絡,它對計算量的要求也很高,因此無法成為一種實際的方法。盡管如此,還是有少數研究團隊勇往直前,比如多倫多大學Geoffrey Hinton所領導的團隊,他們將算法平行放進超級電腦,驗證自己的概念,直到GPU開始廣泛采用我們才真正看到希望。

  回到識別停止標誌的例子,如果我們對網絡進行訓練,用大量的錯誤答案訓練網絡,調整網絡,結果就會更好。研究人員需要做的就是訓練,他們要收集幾萬張、甚至幾百萬張圖片,直到人工神經元輸入的權重高度精準,讓每一次判斷都正確為止——不管是有霧還是沒霧,是陽光明媚還是下雨都不受影響。這時神經網絡就可以自己“教”自己,搞清停止標誌的到底是怎樣的;它還可以識別Facebook的人臉圖像,可以識別貓——吳恩達(Andrew Ng)2012年在谷歌做的事情就是讓神經網絡識別貓。

  吳恩達的突破之處在於:讓神經網絡變得無比巨大,不斷增加層數和神經元數量,讓系統運行大量數據,訓練它。吳恩達的項目從1000萬段YouTube視頻調用圖片,他真正讓深度學習有了“深度”。

  到了今天,在某些場景中,經過深度學習技術訓練的機器在識別圖像時比人類更好,比如識別貓、識別血液中的癌細胞特征、識別MRI掃描圖片中的腫瘤。谷歌AlphaGo學習圍棋,它自己與自己不斷下圍棋並從中學習。

  有了深度學習AI的未來一片光明

  有了深度學習,機器學習才有了許多實際的應用,它還拓展了AI的整體範圍。 深度學習將任務分拆,使得各種類型的機器輔助變成可能。無人駕駛汽車、更好的預防性治療、更好的電影推薦要麽已經出現,要麽即使出現。AI既是現在,也是未來。有了深度學習的幫助,也許到了某一天AI會達到科幻小說描述的水平,這正是我們期待已久的。你會有自己的C-3PO,有自己的終結者。

一張圖看懂AI、機器學習和深度學習的區別