1. 程式人生 > >BP反向傳播(包含公式推導和程式碼實踐)

BP反向傳播(包含公式推導和程式碼實踐)

原文主要轉載於:https://www.cnblogs.com/charlotte77/p/5629865.html

本文主要分兩個部分描述:

        第一部分為原理知識主要是涉及到數學微積分和理論推導

        第二部分為程式碼實踐(Python實現)兩種實現方式

                1、第一種程式碼(根據理論公式推導一步步實現程式碼)

                2、第二種程式碼(根據轉換為向量實現簡單的程式碼)

 

一、理論說明(需要有簡單的神經網路原理知識,建議看吳恩達deep learning學習視訊):

最近在看深度學習的東西,一開始看的吳恩達的UFLDL教程,有中文版就直接看了,後來發現有些地方總是不是很明確,又去看英文版,然後又找了些資料看,才發現,中文版的譯者在翻譯的時候會對省略的公式推導過程進行補充,但是補充的又是錯的,難怪覺得有問題。反向傳播法其實是神經網路的基礎了,但是很多人在學的時候總是會遇到一些問題,或者看到大篇的公式覺得好像很難就退縮了,其實不難,就是一個鏈式求導法則反覆用。如果不想看公式,可以直接把數值帶進去,實際的計算一下,體會一下這個過程之後再來推導公式,這樣就會覺得很容易了。

  說到神經網路,大家看到這個圖應該不陌生:

 

  這是典型的三層神經網路的基本構成,Layer L1是輸入層,Layer L2是隱含層,Layer L3是隱含層,我們現在手裡有一堆資料{x1,x2,x3,...,xn},輸出也是一堆資料{y1,y2,y3,...,yn},現在要他們在隱含層做某種變換,讓你把資料灌進去後得到你期望的輸出。如果你希望你的輸出和原始輸入一樣,那麼就是最常見的自編碼模型(Auto-Encoder)。可能有人會問,為什麼要輸入輸出都一樣呢?有什麼用啊?其實應用挺廣的,在影象識別,文字分類等等都會用到,我會專門再寫一篇Auto-Encoder的文章來說明,包括一些變種之類的。如果你的輸出和原始輸入不一樣,那麼就是很常見的人工神經網路了,相當於讓原始資料通過一個對映來得到我們想要的輸出資料,也就是我們今天要講的話題。

  本文直接舉一個例子,帶入數值演示反向傳播法的過程,公式的推導等到下次寫Auto-Encoder的時候再寫,其實也很簡單,感興趣的同學可以自己推導下試試:)(注:本文假設你已經懂得基本的神經網路構成,如果完全不懂,可以參考Poll寫的筆記:[Mechine Learning & Algorithm] 神經網路基礎

  假設,你有這樣一個網路層:

  第一層是輸入層,包含兩個神經元i1,i2,和截距項b1;第二層是隱含層,包含兩個神經元h1,h2和截距項b2,第三層是輸出o1,o2,每條線上標的wi是層與層之間連線的權重,啟用函式我們預設為sigmoid函式。

  現在對他們賦上初值,如下圖:

  其中,輸入資料  i1=0.05,i2=0.10;

     輸出資料 o1=0.01,o2=0.99;

     初始權重  w1=0.15,w2=0.20,w3=0.25,w4=0.30;

           w5=0.40,w6=0.45,w7=0.50,w8=0.55

 

  目標:給出輸入資料i1,i2(0.05和0.10),使輸出儘可能與原始輸出o1,o2(0.01和0.99)接近。

 

  Step 1 前向傳播

  1.輸入層---->隱含層:

  計算神經元h1的輸入加權和:

神經元h1的輸出o1:(此處用到啟用函式為sigmoid函式):

 

 

  同理,可計算出神經元h2的輸出o2:

  

 

  2.隱含層---->輸出層:

  計算輸出層神經元o1和o2的值:

  

 

這樣前向傳播的過程就結束了,我們得到輸出值為[0.75136079 , 0.772928465],與實際值[0.01 , 0.99]相差還很遠,現在我們對誤差進行反向傳播,更新權值,重新計算輸出。

 

Step 2 反向傳播

1.計算總誤差

總誤差:(square error)

但是有兩個輸出,所以分別計算o1和o2的誤差,總誤差為兩者之和:

 

2.隱含層---->輸出層的權值更新:

以權重引數w5為例,如果我們想知道w5對整體誤差產生了多少影響,可以用整體誤差對w5求偏導求出:(鏈式法則)

下面的圖可以更直觀的看清楚誤差是怎樣反向傳播的:

現在我們來分別計算每個式子的值:

計算

計算

(這一步實際上就是對sigmoid函式求導,比較簡單,可以自己推導一下)

 

計算

最後三者相乘:

這樣我們就計算出整體誤差E(total)對w5的偏導值。

回過頭來再看看上面的公式,我們發現:

為了表達方便,用來表示輸出層的誤差:

因此,整體誤差E(total)對w5的偏導公式可以寫成:

如果輸出層誤差計為負的話,也可以寫成:

最後我們來更新w5的值:

(其中,是學習速率,這裡我們取0.5)

同理,可更新w6,w7,w8:

 

3.隱含層---->隱含層的權值更新:

 方法其實與上面說的差不多,但是有個地方需要變一下,在上文計算總誤差對w5的偏導時,是從out(o1)---->net(o1)---->w5,但是在隱含層之間的權值更新時,是out(h1)---->net(h1)---->w1,而out(h1)會接受E(o1)和E(o2)兩個地方傳來的誤差,所以這個地方兩個都要計算。

 

 

計算

先計算

同理,計算出:

          

兩者相加得到總值:

再計算

再計算

最後,三者相乘:

 為了簡化公式,用sigma(h1)表示隱含層單元h1的誤差:

最後,更新w1的權值:

同理,額可更新w2,w3,w4的權值:

 

  這樣誤差反向傳播法就完成了,最後我們再把更新的權值重新計算,不停地迭代,在這個例子中第一次迭代之後,總誤差E(total)由0.298371109下降至0.291027924。迭代10000次後,總誤差為0.000035085,輸出為[0.015912196,0.984065734](原輸入為[0.01,0.99]),證明效果還是不錯的。

 

二、程式碼實踐(Python實現)兩種實現方式

       1、第一種程式碼(根據理論公式推導一步步實現程式碼)

import numpy as np

# "pd"偏導
'''
啟用函式
'''
def sigmoid(x):
    return 1/(1/+np.exp(-x))
'''
計算啟用函式的偏微分
'''
def sigmoidDerivationx(y):
    return y*(1-y)

if __name__ == "__main__":
    #初始化
    bias = [0.35, 0.60]
    weight = [0.15,0.2,0.25,0.3,0.4,0.45,0.5,0.55]
    output_layer_weights = [0.4,0.45,0.5,0.55]
    #初始值
    i1 = 0.05
    i2 = 0.10
    #目標值
    target1 = 0.01
    target2 = 0.99
    alpha = 0.5     #學習率
    numIter = 10000 #迭代次數
    for i in range(numIter):
        #正向傳播
        neth1 = i1*weight[1-1] + i2*weight[2-1] + bias[0]
        neth2 = i1*weight[3-1] + i2*weight[4-1] + bias[0]
        outh1 = sigmoid(neth1)
        outh2 = sigmoid(neth2)
        neto1 = outh1*weight[5-1] + outh2*weight[6-1] + bias[1]
        neto2 = outh2*weight[7-1] + outh2*weight[8-1] + bias[1]
        outo1 = sigmoid(neto1)
        outo2 = sigmoid(neto2)
        
        print(str(i)+ ",target1 :" + str(target1-outo1)+",target2 : "+ str(target2-outo2))
        if i == numIter-1:
            print("lastst result :"+str(outo1)+" "+ str(outo2))
        
        #反向傳播
        #計算w5-w8(輸出層權重)的誤差
        pdEOuto1 = - (target1-outo1)             #對o1輸出的微積分
        pdOuto1Neto1 = sigmoidDerivationx(outo1)#對o1啟用函式的積分
        pdNeto1W5 = outh1                       #對得到neto1的函式中變數w5的微積分
        pdEW5 = pdEOuto1 * pdOuto1Neto1 * pdNeto1W5 #用整體的誤差對w5求偏導
        pdNeto1W6 = outh2 
        pdEW6 = pdEOuto1 * pdOuto1Neto1 * pdNeto1W6 #用整體的誤差對w6求偏導
        
        '''
        同理用同樣的方法對w7和w8更新
        '''
        pdEOuto2 = - (target2 - outo2)
        pdOuto2Neto2 = sigmoidDerivationx(outo2)
        pdNeto1W7 = outh1
        pdEW7 = pdEOuto2 * pdOuto2Neto2 * pdNeto1W7
        pdNeto1W8 = outh2
        pdEW8 = pdEOuto2 * pdOuto2Neto2 * pdNeto1W8
        
        
        #計算w1-w4(輸出層權重)的誤差
        pdEouto1 = -(target1 - outo1)      #之前算過
        pdEouto2 = -(target2 - outo2)      #之前算過
        pdOuto1Neto1 = sigmoidDerivationx(outo1)   #之前算過
        pdOuto2Neto2 = sigmoidDerivationx(outo2)   #之前算過
        
        '''
        由h1輸出out1到o1的neto1 相當於 y=w*x + b
        y為Neto1 和x為Outh1 然後對Outh1微積分得到的值為w
        '''
        pdNeto1Outh1 = weight[5-1]  #對Outh1到Neto1函式中輸入值的
        pdNeto2Outh2 = weight[7-1]
        
        '''
        求出h1輸出的誤差佔總的誤差的比重
        '''
        pdEOuth1 = pdEOuto1 * pdOuto1Neto1 * pdNeto1Outh1 + pdEOuto2 * pdOuto2Neto2 * pdNeto1Outh1
        
        pdOuth1Neth1 = sigmoidDerivationx(outh1)  #對啟用函式微積分
        pdNeth1W1 = i1
        pdNeth1W2 = i2
        '''
        參考公式
        '''
        pdEW1 = pdEOuth1 * pdOuth1Neth1 * pdNeth1W1
        pdEW2 = pdEOuth1 * pdOuth1Neth1 * pdNeth1W2
        pdNeto1Outh2 = weight[6-1]
        pdNeto2Outh2 = weight[8-1]
        pdOuth2Neth2 = sigmoidDerivationx(outh2)
        
        '''
        由輸入的公式微積分y = w*x + b可知
        '''
        pdNeth2W3 = i1
        pdNeth2W4 = i2
        pdEOuth2 = pdEOuto1 * pdOuto1Neto1 * pdNeto1Outh2 + pdEOuto2 * pdOuto2Neto2 * pdNeto2Outh2
        pdEW3 = pdEOuth2 * pdOuth2Neth2 * pdNeth2W3
        pdEW4 = pdEOuth2 * pdOuth2Neth2 * pdNeth2W4
        
        #權重更新
        weight[1-1] = weight[1-1] - alpha*pdEW1
        weight[2-1] = weight[2-1] - alpha*pdEW2
        weight[3-1] = weight[3-1] - alpha*pdEW3
        weight[4-1] = weight[4-1] - alpha*pdEW4
        weight[5-1] = weight[5-1] - alpha*pdEW5
        weight[6-1] = weight[6-1] - alpha*pdEW6
        weight[7-1] = weight[7-1] - alpha*pdEW7
        weight[8-1] = weight[8-1] - alpha*pdEW8
        

    

       2、第二種程式碼(根據轉換為向量實現簡單的程式碼)

import numpy as np

#設定啟用函式
def sigmoid(x):
    return 1/(1+np.exp(-x))

#計算啟用函式的偏微分
def sigmoidDerivationx(y):
    return y * (1-y)

if __name__ == "__main__":
    alpha = 0.05     #設定學習率
    numIter = 100000 #迭代次數
    w1 = [[0.15,0.20],[0.25,0.30]]   #輸出層的權重
    w2 = [[0.40,0.45],[0.50,0.55]]   #權重矩陣的維度
    b1 = 0.35
    b2 = 0.60
    
    x = [0.05,0.10]  #初始化輸入
    y = [0.01,0.99]  #初始化對應的輸出label
    
    z1 = np.dot(w1,x) + b1
    a1 = sigmoid(z1)   #啟用函式,第一層激勵值
    
    z2 = np.dot(w2,x) + b2
    a2 = sigmoid(z2)   #第二層激勵值
    
    for n in range(numIter):
        '''
        反向傳播,使用代價函式c = 1/(2n)*sum[y-a2]^2
        最後一層的梯度delta
        '''
        delta2 = np.multiply(-(y - a2),np.multiply(a2,1-a2))
        '''
        delta2這兩項乘積由來,第一個引數是代價函式對a2求的偏導(實際上得到的就是真實輸出值與預測值之間的誤差而已)    
                              第二個引數是激勵值得導數,二者相乘最後得梯度的變化值
        非最後一層的梯度delta(即隱含層),演算法與最後一層不一樣,因為其沒有輸出預測值,我們用下一層誤差的加權和來代替真實值與預測值的差
        '''
        delta1 = np.multiply(np.dot(np.array(w2).T, delta2), np.multiply(a1, 1 - a1))
        # 關鍵是要明白計算的過程與理論基礎
        # 計算完權重的變化後(即delta),更新權重,delta也可以稱為梯度的變化
    
        for i in range(len(w2)):
            w2[i] = w2[i] -alpha*delta2[i]*a1
        for i in range(len(w1)):
            w1[i] = w1[i] -alpha*delta1[i]*np.array(x)
        #繼續向前傳播,算出誤差值
        s
        z1 = np.dot(w1,x) + b1  #用新的權重值在計算一遍激勵值
        a1 = sigmoid(z1)
        z2 = np.dot(w2,a1) + b2
        a2 = sigmoid(z2)
        
        print(str(n) + "result: "+str(a2[0])+",result: "+str(a2[1]))
        # 輸出迭代後的預測值
        print(str(n) + "error1: "+str(y[0] - a2[0])+ ",error2: "+str(y[1] - a2[1]))
        # 輸出誤差,可以通過改變迭代次數來檢視效果
        
            

實驗結果:

目錄

本文主要分兩個部分描述:

        第一部分為原理知識主要是涉及到數學微積分和理論推導

        第二部分為程式碼實踐(Python實現)兩種實現方式

                1、第一種程式碼(根據理論公式推導一步步實現程式碼)

                2、第二種程式碼(根據轉換為向量實現簡單的程式碼)

 

一、理論說明(需要有簡單的神經網路原理知識,建議看吳恩達deep learning學習視訊):

二、程式碼實踐(Python實現)兩種實現方式

       1、第一種程式碼(根據理論公式推導一步步實現程式碼)

       2、第二種程式碼(根據轉換為向量實現簡單的程式碼)