1. 程式人生 > >神經網路淺講:從神經元到深度學習

神經網路淺講:從神經元到深度學習

  神經網路是一門重要的機器學習技術。它是目前最為火熱的研究方向--深度學習的基礎。學習神經網路不僅可以讓你掌握一門強大的機器學習方法,同時也可以更好地幫助你理解深度學習技術。

  本文以一種簡單的,循序的方式講解神經網路。適合對神經網路瞭解不多的同學。本文對閱讀沒有一定的前提要求,但是懂一些機器學習基礎會更好地幫助理解本文。

  神經網路是一種模擬人腦的神經網路以期能夠實現類人工智慧的機器學習技術。人腦中的神經網路是一個非常複雜的組織。成人的大腦中估計有1000億個神經元之多。

圖1 人腦神經網路

  那麼機器學習中的神經網路是如何實現這種模擬的,並且達到一個驚人的良好效果的?通過本文,你可以瞭解到這些問題的答案,同時還能知道神經網路的歷史,以及如何較好地學習它。

  由於本文較長,為方便讀者,以下是本文的目錄:

  一.前言

  二.神經元

  六.回顧

  七.展望

  八.總結

  九.後記

  十.備註

一. 前言

  讓我們來看一個經典的神經網路。這是一個包含三個層次的神經網路。紅色的是輸入層,綠色的是輸出層,紫色的是中間層(也叫隱藏層)。輸入層有3個輸入單元,隱藏層有4單元,輸出層有2單元。後文中,我們統一使用這種顏色來表達神經網路的結構。

圖2 神經網路結構圖

  在開始介紹前,有一些知識可以先記在心裡:

  1. 設計一個神經網路時,輸入層與輸出層的節點數往往是固定的,中間層則可以自由指定;
  2. 神經網路結構圖中的拓撲與箭頭代表著預測過程時資料的流向,跟訓練時的資料流有一定的區別;
  3. 結構圖裡的關鍵不是圓圈(代表“神經元”),而是連線線(代表“神經元”之間的連線)。每個連線線對應一個不同的權重(其值稱為權值),這是需要訓練得到的。 

  除了從左到右的形式表達的結構圖,還有一種常見的表達形式是從下到上來表示一個神經網路。這時候,輸入層在圖的最下方。輸出層則在圖的最上方,如下圖:

圖3 從下到上的神經網路結構圖 

  從左到右的表達形式以Andrew NgLeCun的文獻使用較多,Caffe裡使用的則是從下到上的表達。在本文中使用Andrew Ng代表的從左到右的表達形式。

下面從簡單的神經元開始說起,一步一步介紹神經網路複雜結構的形成。

二. 神經元

  1.引子

  對於神經元的研究由來已久,1904年生物學家就已經知曉了神經元的組成結構。

  一個神經元通常具有多個樹突,主要用來接受傳入資訊;而軸突只有一條,軸突尾端有許多軸突末梢可以給其他多個神經元傳遞資訊。軸突末梢跟其他神經元的樹突產生連線,從而傳遞訊號。這個連線的位置在生物學上叫做突觸

  人腦中的神經元形狀可以用下圖做簡單的說明:

圖4 神經元

   1943年,心理學家McCulloch和數學家Pitts參考了生物神經元的結構,發表了抽象的神經元模型MP。在下文中,我們會具體介紹神經元模型。

   

圖5 Warren McCulloch(左)和 Walter Pitts(右)  

  2.結構 

  神經元模型是一個包含輸入,輸出與計算功能的模型。輸入可以類比為神經元的樹突,而輸出可以類比為神經元的軸突,計算則可以類比為細胞核。

  下圖是一個典型的神經元模型:包含有3個輸入,1個輸出,以及2個計算功能。

  注意中間的箭頭線。這些線稱為“連線”。每個上有一個“權值”

圖6 神經元模型 

  連線是神經元中最重要的東西。每一個連線上都有一個權重。

  一個神經網路的訓練演算法就是讓權重的值調整到最佳,以使得整個網路的預測效果最好。

  我們使用a來表示輸入,用w來表示權值。一個表示連線的有向箭頭可以這樣理解:在初端,傳遞的訊號大小仍然是a,端中間有加權引數w,經過這個加權後的訊號會變成a*w,因此在連線的末端,訊號的大小就變成了a*w。

  在其他繪圖模型裡,有向箭頭可能表示的是值的不變傳遞。而在神經元模型裡,每個有向箭頭表示的是值的加權傳遞。

圖7 連線(connection)  

  如果我們將神經元圖中的所有變數用符號表示,並且寫出輸出的計算公式的話,就是下圖。

圖8 神經元計算  

  可見z是在輸入和權值的線性加權和疊加了一個函式g的值。在MP模型裡,函式g是sgn函式,也就是取符號函式。這個函式當輸入大於0時,輸出1,否則輸出0。

  下面對神經元模型的圖進行一些擴充套件。首先將sum函式與sgn函式合併到一個圓圈裡,代表神經元的內部計算。其次,把輸入a與輸出z寫到連線線的左上方,便於後面畫複雜的網路。最後說明,一個神經元可以引出多個代表輸出的有向箭頭,但值都是一樣的。

  神經元可以看作一個計算與儲存單元。計算是神經元對其的輸入進行計算功能。儲存是神經元會暫存計算結果,並傳遞到下一層。

圖9 神經元擴充套件 

  當我們用“神經元”組成網路以後,描述網路中的某個“神經元”時,我們更多地會用“單元”(unit)來指代。同時由於神經網路的表現形式是一個有向圖,有時也會用“節點”(node)來表達同樣的意思。 

  3.效果 

  神經元模型的使用可以這樣理解:

  我們有一個數據,稱之為樣本。樣本有四個屬性,其中三個屬性已知,一個屬性未知。我們需要做的就是通過三個已知屬性預測未知屬性。

  具體辦法就是使用神經元的公式進行計算。三個已知屬性的值是a1,a2,a3,未知屬性的值是z。z可以通過公式計算出來。

  這裡,已知的屬性稱之為特徵,未知的屬性稱之為目標。假設特徵與目標之間確實是線性關係,並且我們已經得到表示這個關係的權值w1,w2,w3。那麼,我們就可以通過神經元模型預測新樣本的目標。

  4.影響

  1943年釋出的MP模型,雖然簡單,但已經建立了神經網路大廈的地基。但是,MP模型中,權重的值都是預先設定的,因此不能學習。

  1949年心理學家Hebb提出了Hebb學習率,認為人腦神經細胞的突觸(也就是連線)上的強度上可以變化的。於是計算科學家們開始考慮用調整權值的方法來讓機器學習。這為後面的學習演算法奠定了基礎。

圖10 Donald Olding Hebb 

  儘管神經元模型與Hebb學習律都已誕生,但限於當時的計算機能力,直到接近10年後,第一個真正意義的神經網路才誕生。

三. 單層神經網路(感知器)

  1.引子 

  1958年,計算科學家Rosenblatt提出了由兩層神經元組成的神經網路。他給它起了一個名字--“感知器”(Perceptron)(有的文獻翻譯成“感知機”,下文統一用“感知器”來指代)。

  感知器是當時首個可以學習的人工神經網路。Rosenblatt現場演示了其學習識別簡單影象的過程,在當時的社會引起了轟動。

  人們認為已經發現了智慧的奧祕,許多學者和科研機構紛紛投入到神經網路的研究中。美國軍方大力資助了神經網路的研究,並認為神經網路比“原子彈工程”更重要。這段時間直到1969年才結束,這個時期可以看作神經網路的第一次高潮。

圖11 Rosenblat與感知器 

  2.結構

  下面來說明感知器模型。

  在原來MP模型的“輸入”位置新增神經元節點,標誌其為“輸入單元”。其餘不變,於是我們就有了下圖:從本圖開始,我們將權值w1, w2, w3寫到“連線線”的中間

圖12 單層神經網路 

  在“感知器”中,有兩個層次。分別是輸入層和輸出層。輸入層裡的“輸入單元”只負責傳輸資料,不做計算。輸出層裡的“輸出單元”則需要對前面一層的輸入進行計算。

  我們把需要計算的層次稱之為“計算層”,並把擁有一個計算層的網路稱之為“單層神經網路”。有一些文獻會按照網路擁有的層數來命名,例如把“感知器”稱為兩層神經網路。但在本文裡,我們根據計算層的數量來命名。

  假如我們要預測的目標不再是一個值,而是一個向量,例如[2,3]。那麼可以在輸出層再增加一個“輸出單元”

  下圖顯示了帶有兩個輸出單元的單層神經網路,其中輸出單元z1的計算公式如下圖。

圖13 單層神經網路(Z1)

  可以看到,z1的計算跟原先的z並沒有區別。

  我們已知一個神經元的輸出可以向多個神經元傳遞,因此z2的計算公式如下圖。

圖14 單層神經網路(Z2)

  可以看到,z2的計算中除了三個新的權值:w4,w5,w6以外,其他與z1是一樣的

  整個網路的輸出如下圖。

圖15 單層神經網路(Z1和Z2)

  目前的表達公式有一點不讓人滿意的就是:w4,w5,w6是後來加的,很難表現出跟原先的w1,w2,w3的關係。

  因此我們改用二維的下標,用wx,y來表達一個權值。下標中的x代表後一層神經元的序號,而y代表前一層神經元的序號(序號的順序從上到下)。

  例如,w1,2代表後一層的第1個神經元與前一層的第2個神經元的連線的權值(這種標記方式參照了Andrew Ng的課件)。根據以上方法標記,我們有了下圖。

圖16 單層神經網路(擴充套件)

  如果我們仔細看輸出的計算公式,會發現這兩個公式就是線性代數方程組。因此可以用矩陣乘法來表達這兩個公式。

  例如,輸入的變數是[a1,a2,a3]T(代表由a1,a2,a3組成的列向量),用向量a來表示。方程的左邊是[z1,z2]T,用向量z來表示。

  係數則是矩陣W(2行3列的矩陣,排列形式與公式中的一樣)。

  於是,輸出公式可以改寫成:

g(W * a) = z;

  這個公式就是神經網路中從前一層計算後一層的矩陣運算。

  3.效果

  與神經元模型不同,感知器中的權值是通過訓練得到的。因此,根據以前的知識我們知道,感知器類似一個邏輯迴歸模型,可以做線性分類任務。

  我們可以用決策分界來形象的表達分類的效果。決策分界就是在二維的資料平面中劃出一條直線,當資料的維度是3維的時候,就是劃出一個平面,當資料的維度是n維時,就是劃出一個n-1維的超平面。

  下圖顯示了在二維平面中劃出決策分界的效果,也就是感知器的分類效果。

圖17 單層神經網路(決策分界)

  4.影響

  感知器只能做簡單的線性分類任務。但是當時的人們熱情太過於高漲,並沒有人清醒的認識到這點。於是,當人工智慧領域的巨擘Minsky指出這點時,事態就發生了變化。

  Minsky在1969年出版了一本叫《Perceptron》的書,裡面用詳細的數學證明了感知器的弱點,尤其是感知器對XOR(異或)這樣的簡單分類任務都無法解決。

  Minsky認為,如果將計算層增加到兩層,計算量則過大,而且沒有有效的學習演算法。所以,他認為研究更深層的網路是沒有價值的。(本文成文後一個月,即2016年1月,Minsky在美國去世。謹在本文中紀念這位著名的計算機研究專家與大拿。)

   

圖18 Marvin Minsky

  由於Minsky的巨大影響力以及書中呈現的悲觀態度,讓很多學者和實驗室紛紛放棄了神經網路的研究。神經網路的研究陷入了冰河期。這個時期又被稱為AI winter

  接近10年以後,對於兩層神經網路的研究才帶來神經網路的復甦。

四. 兩層神經網路(多層感知器)

  1.引子

  兩層神經網路是本文的重點,因為正是在這時候,神經網路開始了大範圍的推廣與使用。

  Minsky說過單層神經網路無法解決異或問題。但是當增加一個計算層以後,兩層神經網路不僅可以解決異或問題,而且具有非常好的非線性分類效果。不過兩層神經網路的計算是一個問題,沒有一個較好的解法。

  1986年,RumelharHinton等人提出了反向傳播(BackpropagationBP)演算法,解決了兩層神經網路所需要的複雜計算量問題,從而帶動了業界使用兩層神經網路研究的熱潮。目前,大量的教授神經網路的教材,都是重點介紹兩層(帶一個隱藏層)神經網路的內容。

  這時候的Hinton還很年輕,30年以後,正是他重新定義了神經網路,帶來了神經網路復甦的又一春。

        

圖19 David Rumelhart(左)以及 Geoffery Hinton(右)

  2.結構

  兩層神經網路除了包含一個輸入層,一個輸出層以外,還增加了一箇中間層。此時,中間層和輸出層都是計算層。我們擴充套件上節的單層神經網路,在右邊新加一個層次(只含有一個節點)。

  現在,我們的權值矩陣增加到了兩個,我們用上標來區分不同層次之間的變數。

  例如ax(y)代表第y層的第x個節點。z1,z2變成了a1(2),a2(2)。下圖給出了a1(2),a2(2)的計算公式。

圖20 兩層神經網路(中間層計算)

  計算最終輸出z的方式是利用了中間層的a1(2),a2(2)和第二個權值矩陣計算得到的,如下圖。

圖21 兩層神經網路(輸出層計算)

  假設我們的預測目標是一個向量,那麼與前面類似,只需要在“輸出層”再增加節點即可。

  我們使用向量和矩陣來表示層次中的變數。a(1)a(2)z是網路中傳輸的向量資料。W(1)W(2)是網路的矩陣引數。如下圖。

圖22 兩層神經網路(向量形式)

  使用矩陣運算來表達整個計算公式的話如下:

  g(W(1) * a(1)) = a(2)

g(W(2) * a(2)) = z;

  由此可見,使用矩陣運算來表達是很簡潔的,而且也不會受到節點數增多的影響(無論有多少節點參與運算,乘法兩端都只有一個變數)。因此神經網路的教程中大量使用矩陣運算來描述。

  需要說明的是,至今為止,我們對神經網路的結構圖的討論中都沒有提到偏置節點(bias unit)。事實上,這些節點是預設存在的。它本質上是一個只含有儲存功能,且儲存值永遠為1的單元。在神經網路的每個層次中,除了輸出層以外,都會含有這樣一個偏置單元。正如線性迴歸模型與邏輯迴歸模型中的一樣。

  偏置單元與後一層的所有節點都有連線,我們設這些引數值為向量b,稱之為偏置。如下圖。

圖23 兩層神經網路(考慮偏置節點)

  可以看出,偏置節點很好認,因為其沒有輸入(前一層中沒有箭頭指向它)。有些神經網路的結構圖中會把偏置節點明顯畫出來,有些不會。一般情況下,我們都不會明確畫出偏置節點。 

  在考慮了偏置以後的一個神經網路的矩陣運算如下:

  g(W(1) * a(1) + b(1)) = a(2)

g(W(2) * a(2) + b(2)) = z;

  需要說明的是,在兩層神經網路中,我們不再使用sgn函式作為函式g,而是使用平滑函式sigmoid作為函式g。我們把函式g也稱作啟用函式(active function)。

  事實上,神經網路的本質就是通過引數與啟用函式來擬合特徵與目標之間的真實函式關係。初學者可能認為畫神經網路的結構圖是為了在程式中實現這些圓圈與線,但在一個神經網路的程式中,既沒有“線”這個物件,也沒有“單元”這個物件。實現一個神經網路最需要的是線性代數庫。

  3.效果

  與單層神經網路不同。理論證明,兩層神經網路可以無限逼近任意連續函式。

  這是什麼意思呢?也就是說,面對複雜的非線性分類任務,兩層(帶一個隱藏層)神經網路可以分類的很好。

  下面就是一個例子(此兩圖來自colah的部落格),紅色的線與藍色的線代表資料。而紅色區域和藍色區域代表由神經網路劃開的區域,兩者的分界線就是決策分界。

圖24 兩層神經網路(決策分界)

  可以看到,這個兩層神經網路的決策分界是非常平滑的曲線,而且分類的很好。有趣的是,前面已經學到過,單層網路只能做線性分類任務。而兩層神經網路中的後一層也是線性分類層,應該只能做線性分類任務。為什麼兩個線性分類任務結合就可以做非線性分類任務?

  我們可以把輸出層的決策分界單獨拿出來看一下。就是下圖。

圖25 兩層神經網路(空間變換)

  可以看到,輸出層的決策分界仍然是直線。關鍵就是,從輸入層到隱藏層時,資料發生了空間變換。也就是說,兩層神經網路中,隱藏層對原始的資料進行了一個空間變換,使其可以被線性分類,然後輸出層的決策分界劃出了一個線性分類分界線,對其進行分類。

  這樣就匯出了兩層神經網路可以做非線性分類的關鍵--隱藏層。聯想到我們一開始推匯出的矩陣公式,我們知道,矩陣和向量相乘,本質上就是對向量的座標空間進行一個變換。因此,隱藏層的引數矩陣的作用就是使得資料的原始座標空間從線性不可分,轉換成了線性可分。

  兩層神經網路通過兩層的線性模型模擬了資料內真實的非線性函式。因此,多層的神經網路的本質就是複雜函式擬合。

  下面來討論一下隱藏層的節點數設計。在設計一個神經網路時,輸入層的節點數需要與特徵的維度匹配,輸出層的節點數要與目標的維度匹配。而中間層的節點數,卻是由設計者指定的。因此,“自由”把握在設計者的手中。但是,節點數設定的多少,卻會影響到整個模型的效果。如何決定這個自由層的節點數呢?目前業界沒有完善的理論來指導這個決策。一般是根據經驗來設定。較好的方法就是預先設定幾個可選值,通過切換這幾個值來看整個模型的預測效果,選擇效果最好的值作為最終選擇。這種方法又叫做Grid Search(網格搜尋)。

  瞭解了兩層神經網絡的結構以後,我們就可以看懂其它類似的結構圖。例如EasyPR字元識別網路架構(下圖)。

圖26 EasyPR字元識別網路

  EasyPR使用了字元的影象去進行字元文字的識別。輸入是120維的向量。輸出是要預測的文字類別,共有65類。根據實驗,我們測試了一些隱藏層數目,發現當值為40時,整個網路在測試集上的效果較好,因此選擇網路的最終結構就是120,40,65。

  4.訓練

  下面簡單介紹一下兩層神經網路的訓練。

  在Rosenblat提出的感知器模型中,模型中的引數可以被訓練,但是使用的方法較為簡單,並沒有使用目前機器學習中通用的方法,這導致其擴充套件性與適用性非常有限。從兩層神經網路開始,神經網路的研究人員開始使用機器學習相關的技術進行神經網路的訓練。例如用大量的資料(1000-10000左右),使用演算法進行優化等等,從而使得模型訓練可以獲得性能與資料利用上的雙重優勢。

  機器學習模型訓練的目的,就是使得引數儘可能的與真實的模型逼近。具體做法是這樣的。首先給所有引數賦上隨機值。我們使用這些隨機生成的引數值,來預測訓練資料中的樣本。樣本的預測目標為yp,真實目標為y。那麼,定義一個值loss,計算公式如下。

loss = (y- y)2

  這個值稱之為損失(loss),我們的目標就是使對所有訓練資料的損失和儘可能的小。

  如果將先前的神經網路預測的矩陣公式帶入到yp中(因為有z=yp),那麼我們可以把損失寫為關於引數(parameter)的函式,這個函式稱之為損失函式(loss function)。下面的問題就是求:如何優化引數,能夠讓損失函式的值最小。

  此時這個問題就被轉化為一個優化問題。一個常用方法就是高等數學中的求導,但是這裡的問題由於引數不止一個,求導後計算導數等於0的運算量很大,所以一般來說解決這個優化問題使用的是梯度下降演算法。梯度下降演算法每次計算引數在當前的梯度,然後讓引數向著梯度的反方向前進一段距離,不斷重複,直到梯度接近零時截止。一般這個時候,所有的引數恰好達到使損失函式達到一個最低值的狀態。

  在神經網路模型中,由於結構複雜,每次計算梯度的代價很大。因此還需要使用反向傳播演算法。反向傳播演算法是利用了神經網路的結構進行的計算。不一次計算所有引數的梯度,而是從後往前。首先計算輸出層的梯度,然後是第二個引數矩陣的梯度,接著是中間層的梯度,再然後是第一個引數矩陣的梯度,最後是輸入層的梯度。計算結束以後,所要的兩個引數矩陣的梯度就都有了。

  反向傳播演算法可以直觀的理解為下圖。梯度的計算從後往前,一層層反向傳播。字首E代表著相對導數的意思。

圖27 反向傳播演算法

  反向傳播演算法的啟示是數學中的鏈式法則。在此需要說明的是,儘管早期神經網路的研究人員努力從生物學中得到啟發,但從BP演算法開始,研究者們更多地從數學上尋求問題的最優解。不再盲目模擬人腦網路是神經網路研究走向成熟的標誌。正如科學家們可以從鳥類的飛行中得到啟發,但沒有必要一定要完全模擬鳥類的飛行方式,也能製造可以飛天的飛機。

  優化問題只是訓練中的一個部分。機器學習問題之所以稱為學習問題,而不是優化問題,就是因為它不僅要求資料在訓練集上求得一個較小的誤差,在測試集上也要表現好。因為模型最終是要部署到沒有見過訓練資料的真實場景。提升模型在測試集上的預測效果的主題叫做泛化(generalization),相關方法被稱作正則化(regularization)。神經網路中常用的泛化技術有權重衰減等。

  5.影響

  兩層神經網路在多個地方的應用說明了其效用與價值。10年前困擾神經網路界的異或問題被輕鬆解決。神經網路在這個時候,已經可以發力於語音識別,影象識別,自動駕駛等多個領域。

  歷史總是驚人的相似,神經網路的學者們再次登上了《紐約時報》的專訪。人們認為神經網路可以解決許多問題。就連娛樂界都開始受到了影響,當年的《終結者》電影中的阿諾都趕時髦地說一句:我的CPU是一個神經網路處理器,一個會學習的計算機。

  但是神經網路仍然存在若干的問題:儘管使用了BP演算法,一次神經網路的訓練仍然耗時太久,而且困擾訓練優化的一個問題就是區域性最優解問題,這使得神經網路的優化較為困難。同時,隱藏層的節點數需要調參,這使得使用不太方便,工程和研究人員對此多有抱怨。

  90年代中期,由Vapnik等人發明的SVM(Support Vector Machines,支援向量機)演算法誕生,很快就在若干個方面體現出了對比神經網路的優勢:無需調參;高效;全域性最優解。基於以上種種理由,SVM迅速打敗了神經網路演算法成為主流。

圖28 Vladimir Vapnik

  神經網路的研究再次陷入了冰河期。當時,只要你的論文中包含神經網路相關的字眼,非常容易被會議和期刊拒收,研究界那時對神經網路的不待見可想而知。

五. 多層神經網路(深度學習)

  1.引子 

  在被人摒棄的10年中,有幾個學者仍然在堅持研究。這其中的棋手就是加拿大多倫多大學的Geoffery Hinton教授。

  2006年,Hinton在《Science》和相關期刊上發表了論文,首次提出了“深度信念網路”的概念與傳統的訓練方式不同,“深度信念網路”有一個“預訓練”(pre-training)的過程,這可以方便的讓神經網路中的權值找到一個接近最優解的值,之後再使用“微調”(fine-tuning)技術來對整個網路進行優化訓練。這兩個技術的運用大幅度減少了訓練多層神經網路的時間。他給多層神經網路相關的學習方法賦予了一個新名詞--“深度學習”。

   很快,深度學習在語音識別領域暫露頭角。接著,2012年,深度學習技術又在影象識別領域大展拳腳。Hinton與他的學生在ImageNet競賽中,用多層的卷積神經網路成功地對包含一千類別的一百萬張圖片進行了訓練,取得了分類錯誤率15%的好成績,這個成績比第二名高了近11個百分點,充分證明了多層神經網路識別效果的優越性

  在這之後,關於深度神經網路的研究與應用不斷湧現。

圖29 Geoffery Hinton 

  由於篇幅原因,本文不介紹CNN(Conventional Neural Network,卷積神經網路)與RNN(Recurrent Neural Network,遞迴神經網路)的架構,下面我們只討論普通的多層神經網路。

  2.結構

  我們延續兩層神經網路的方式來設計一個多層神經網路。

  在兩層神經網路的輸出層後面,繼續新增層次。原來的輸出層變成中間層,新加的層次成為新的輸出層。所以可以得到下圖。

圖30 多層神經網路

  依照這樣的方式不斷新增,我們可以得到更多層的多層神經網路。公式推導的話其實跟兩層神經網路類似,使用矩陣運算的話就僅僅是加一個公式而已。

  在已知輸入a(1),引數W(1)W(2)W(3)的情況下,輸出z的推導公式如下:

     g(W(1) * a(1)) = a(2)

    g(W(2) * a(2)) = a(3);

g(W(3) * a(3)) = z;

  多層神經網路中,輸出也是按照一層一層的方式來計算。從最外面的層開始,算出所有單元的值以後,再繼續計算更深一層。只有當前層所有單元的值都計算完畢以後,才會算下一層。有點像計算向前不斷推進的感覺。所以這個過程叫做“正向傳播”

  下面討論一下多層神經網路中的引數。

  首先我們看第一張圖,可以看出W(1)中有6個引數,W(2)中有4個引數,W(3)中有6個引數,所以整個神經網路中的引數有16個(這裡我們不考慮偏置節點,下同)。

 

圖31 多層神經網路(較少引數)

  假設我們將中間層的節點數做一下調整。第一個中間層改為3個單元,第二個中間層改為4個單元。

  經過調整以後,整個網路的引數變成了33個。

 

圖32 多層神經網路(較多引數)

  雖然層數保持不變,但是第二個神經網路的引數數量卻是第一個神經網路的接近兩倍之多,從而帶來了更好的表示(represention)能力。表示能力是多層神經網路的一個重要性質,下面會做介紹。

  在引數一致的情況下,我們也可以獲得一個“更深”的網路。

 

圖33 多層神經網路(更深的層次)

  上圖的網路中,雖然引數數量仍然是33,但卻有4箇中間層,是原來層數的接近兩倍。這意味著一樣的引數數量,可以用更深的層次去表達。

  3.效果

  與兩層層神經網路不同。多層神經網路中的層數增加了很多。

  增加更多的層次有什麼好處?更深入的表示特徵,以及更強的函式模擬能力。

  更深入的表示特徵可以這樣理解,隨著網路的層數增加,每一層對於前一層次的抽象表示更深入。在神經網路中,每一層神經元學習到的是前一層神經元值的更抽象的表示。例如第一個隱藏層學習到的是“邊緣”的特徵,第二個隱藏層學習到的是由“邊緣”組成的“形狀”的特徵,第三個隱藏層學習到的是由“形狀”組成的“圖案”的特徵,最後的隱藏層學習到的是由“圖案”組成的“目標”的特徵。通過抽取更抽象的特徵來對事物進行區分,從而獲得更好的區分與分類能力。

  關於逐層特徵學習的例子,可以參考下圖。

 

圖34 多層神經網路(特徵學習)

  更強的函式模擬能力是由於隨著層數的增加,整個網路的引數就越多。而神經網路其實本質就是模擬特徵與目標之間的真實關係函式的方法,更多的引數意味著其模擬的函式可以更加的複雜,可以有更多的容量(capcity)去擬合真正的關係。

  通過研究發現,在引數數量一樣的情況下,更深的網路往往具有比淺層的網路更好的識別效率。這點也在ImageNet的多次大賽中得到了證實。從2012年起,每年獲得ImageNet冠軍的深度神經網路的層數逐年增加,2015年最好的方法GoogleNet是一個多達22層的神經網路。

  在最新一屆的ImageNet大賽上,目前拿到最好成績的MSRA團隊的方法使用的更是一個深達152層的網路!關於這個方法更多的資訊有興趣的可以查閱ImageNet網站。

  4.訓練

  在單層神經網路時,我們使用的啟用函式是sgn函式。到了兩層神經網路時,我們使用的最多的是sigmoid函式。而到了多層神經網路時,通過一系列的研究發現,ReLU函式在訓練多層神經網路時,更容易收斂,並且預測效能更好。因此,目前在深度學習中,最流行的非線性函式是ReLU函式。ReLU函式不是傳統的非線性函式,而是分段線性函式。其表示式非常簡單,就是y=max(x,0)。簡而言之,在x大於0,輸出就是輸入,而在x小於0時,輸出就保持為0。這種函式的設計啟發來自於生物神經元對於激勵的線性響應,以及當低於某個閾值後就不再響應的模擬。

  在多層神經網路中,訓練的主題仍然是優化和泛化。當使用足夠強的計算晶片(例如GPU圖形加速卡)時,梯度下降演算法以及反向傳播演算法在多層神經網路中的訓練中仍然工作的很好。目前學術界主要的研究既在於開發新的演算法,也在於對這兩個演算法進行不斷的優化,例如,增加了一種帶動量因子(momentum)的梯度下降演算法。 

  在深度學習中,泛化技術變的比以往更加的重要。這主要是因為神經網路的層數增加了,引數也增加了,表示能力大幅度增強,很容易出現過擬合現象因此正則化技術就顯得十分重要。目前,Dropout技術,以及資料擴容(Data-Augmentation)技術是目前使用的最多的正則化技術。

  5.影響

  目前,深度神經網路在人工智慧界佔據統治地位。但凡有關人工智慧的產業報道,必然離不開深度學習。神經網路界當下的四位引領者除了前文所說的Ng,Hinton以外,還有CNN的發明人Yann Lecun,以及《Deep Learning》的作者Bengio。

  前段時間一直對人工智慧持謹慎態度的馬斯克,搞了一個OpenAI專案,邀請Bengio作為高階顧問。馬斯克認為,人工智慧技術不應該掌握在大公司如Google,Facebook的手裡,更應該作為一種開放技術,讓所有人都可以參與研究。馬斯克的這種精神值得讓人敬佩。

   

圖35 Yann LeCun(左)和 Yoshua Bengio(右)

  多層神經網路的研究仍在進行中。現在最為火熱的研究技術包括RNN,LSTM等,研究方向則是影象理解方面。影象理解技術是給計算機一幅圖片,讓它用語言來表達這幅圖片的意思。ImageNet競賽也在不斷召開,有更多的方法湧現出來,重新整理以往的正確率。

六. 回顧

  1.影響 

  我們回顧一下神經網路發展的歷程。神經網路的發展歷史曲折盪漾,既有被人捧上天的時刻,也有摔落在街頭無人問津的時段,中間經歷了數次大起大落。

  從單層神經網路(感知器)開始,到包含一個隱藏層的兩層神經網路,再到多層的深度神經網路,一共有三次興起過程。詳見下圖。

 

圖36 三起三落的神經網路

  上圖中的頂點與谷底可以看作神經網路發展的高峰與低谷。圖中的橫軸是時間,以年為單位。縱軸是一個神經網路影響力的示意表示。如果把1949年Hebb模型提出到1958年的感知機誕生這個10年視為落下(沒有興起)的話,那麼神經網路算是經歷了“三起三落”這樣一個過程,跟“小平”同志類似。俗話說,天將降大任於斯人也,必先苦其心志,勞其筋骨。經歷過如此多波折的神經網路能夠在現階段取得成功也可以被看做是磨礪的積累吧。

  歷史最大的好處是可以給現在做參考。科學的研究呈現螺旋形上升的過程,不可能一帆風順。同時,這也給現在過分熱衷深度學習與人工智慧的人敲響警鐘,因為這不是第一次人們因為神經網路而瘋狂了。1958年到1969年,以及1985年到1995,這兩個十年間人們對於神經網路以及人工智慧的期待並不現在低,可結果如何大家也能看的很清楚。

  因此,冷靜才是對待目前深度學習熱潮的最好辦法。如果因為深度學習火熱,或者可以有“錢景”就一窩蜂的湧入,那麼最終的受害人只能是自己。神經網路界已經兩次有被人們捧上天了的境況,相信也對於捧得越高,摔得越慘這句話深有體會。因此,神經網路界的學者也必須給這股熱潮澆上一盆水,不要讓媒體以及投資家們過分的高看這門技術。很有可能,三十年河東,三十年河西,在幾年後,神經網路就再次陷入谷底。根據上圖的歷史曲線圖,這是很有可能的。

  2.效果 

  下面說一下神經網路為什麼能這麼火熱?簡而言之,就是其學習效果的強大。隨著神經網路的發展,其表示效能越來越強。

  從單層神經網路,到兩層神經網路,再到多層神經網路,下圖說明了,隨著網路層數的增加,以及啟用函式的調整,神經網路所能擬合的決策分界平面的能力。

 

圖37 表示能力不斷增強

  可以看出,隨著層數增加,其非線性分界擬合能力不斷增強。圖中的分界線並不代表真實訓練出的效果,更多的是示意效果。

  神經網路的研究與應用之所以能夠不斷地火熱發展下去,與其強大的函式擬合能力是分不開關係的。

  3.外因 

  當然,光有強大的內在能力,並不一定能成功。一個成功的技術與方法,不僅需要內因的作用,還需要時勢與環境的配合。神經網路的發展背後的外在原因可以被總結為:更強的計算效能,更多的資料,以及更好的訓練方法。只有滿足這些條件時,神經網路的函式擬合能力才能得已體現,見下圖。

 

圖38 發展的外在原因

  之所以在單層神經網路年代,Rosenblat無法制作一個雙層分類器,就在於當時的計算效能不足,Minsky也以此來打壓神經網路。但是Minsky沒有料到,僅僅10年以後,計算機CPU的快速發展已經使得我們可以做兩層神經網路的訓練,並且還有快速的學習演算法BP。

  但是在兩層神經網路快速流行的年代。更高層的神經網路由於計算效能的問題,以及一些計算方法的問題,其優勢無法得到體現。直到2012年,研究人員發現,用於高效能運算的圖形加速卡(GPU)可以極佳地匹配神經網路訓練所需要的要求:高並行性,高儲存,沒有太多的控制需求,配合預訓練等演算法,神經網路才得以大放光彩。

  網際網路時代,大量的資料被收集整理,更好的訓練方法不斷被發現。所有這一切都滿足了多層神經網路發揮能力的條件。

  時勢造英雄”,正如Hinton2006年的論文裡說道的

  “... provided that computers were fast enough, data sets were big enough, and the initial weights were close enough to a good solution. All three conditions are now satisfied.

  外在條件的滿足也是神經網路從神經元得以發展到目前的深度神經網路的重要因素。

  除此以外,一門技術的發揚沒有“伯樂”也是不行的。在神經網路漫長的歷史中,正是由於許多研究人員的鍥而不捨,不斷鑽研,才能有了現在的成就。前期的Rosenblat,Rumelhart沒有見證到神經網路如今的流行與地位。但是在那個時代,他們為神經網路的發展所打下的基礎,卻會永遠流傳下去,不會退色。

七. 展望

  1.量子計算

  回到我們對神經網路歷史的討論,根據歷史趨勢圖來看,神經網路以及深度學習會不會像以往一樣再次陷入谷底?作者認為,這個過程可能取決於量子計算機的發展。

  根據一些最近的研究發現,人腦內部進行的計算可能是類似於量子計算形態的東西。而且目前已知的最大神經網路跟人腦的神經元數量相比,仍然顯得非常小,僅不及1%左右。所以未來真正想實現人腦神經網路的模擬,可能需要藉助量子計算的強大計算能力。

  各大研究組也已經認識到了量子計算的重要性。谷歌就在開展量子計算機D-wave的研究,希望用量子計算來進行機器學習,並且在前段時間有了突破性的進展。國內方面,阿里和中科院合作成立了量子計算實驗室,意圖進行量子計算的研究。

  如果量子計算髮展不力,仍然需要數十年才能使我們的計算能力得以突飛猛進的發展,那麼缺少了強大計算能力的神經網路可能會無法一帆風順的發展下去。這種情況可以類比為80-90年時期神經網路因為計算能力的限制而被低估與忽視。假設量子計算機真的能夠與神經網路結合,並且助力真正的人工智慧技術的誕生,而且量子計算機發展需要10年的話,那麼神經網路可能還有10年的發展期。直到那時期以後,神經網路才能真正接近實現AI這一目標。

 

圖39 量子計算

  2.人工智慧

  最後,作者想簡單地談談對目前人工智慧的看法。雖然現在人工智慧非常火熱,但是距離真正的人工智慧還有很大的距離。就拿計算機視覺方向來說,面對稍微複雜一些的場景,以及易於混淆的影象,計算機就可能難以識別。因此,這個方向還有很多的工作要做。

  就普通人看來,這麼辛苦的做各種實驗,以及投入大量的人力就是為了實現一些不及孩童能力的視覺能力,未免有些不值。但是這只是第一步。雖然計算機需要很大的運算量才能完成一個普通人簡單能完成的識圖工作,但計算機最大的優勢在於並行化與批量推廣能力。使用計算機以後,我們可以很輕易地將以前需要人眼去判斷的工作交給計算機做,而且幾乎沒有任何的推廣成本。這就具有很大的價值。正如火