BP反向傳播(包含公式推導和程式碼實踐)
原文主要轉載於:https://www.cnblogs.com/charlotte77/p/5629865.html
本文主要分兩個部分描述:
第一部分為原理知識主要是涉及到數學微積分和理論推導
第二部分為程式碼實踐(Python實現)兩種實現方式
1、第一種程式碼(根據理論公式推導一步步實現程式碼)
2、第二種程式碼(根據轉換為向量實現簡單的程式碼)
一、理論說明(需要有簡單的神經網路原理知識,建議看吳恩達deep learning學習視訊):
最近在看深度學習的東西,一開始看的吳恩達的UFLDL教程,有中文版就直接看了,後來發現有些地方總是不是很明確,又去看英文版,然後又找了些資料看,才發現,中文版的譯者在翻譯的時候會對省略的公式推導過程進行補充,但是補充的又是錯的,難怪覺得有問題。反向傳播法其實是神經網路的基礎了,但是很多人在學的時候總是會遇到一些問題,或者看到大篇的公式覺得好像很難就退縮了,其實不難,就是一個鏈式求導法則反覆用。如果不想看公式,可以直接把數值帶進去,實際的計算一下,體會一下這個過程之後再來推導公式,這樣就會覺得很容易了。
說到神經網路,大家看到這個圖應該不陌生:
這是典型的三層神經網路的基本構成,Layer L1是輸入層,Layer L2是隱含層,Layer L3是隱含層,我們現在手裡有一堆資料{x1,x2,x3,...,xn},輸出也是一堆資料{y1,y2,y3,...,yn},現在要他們在隱含層做某種變換,讓你把資料灌進去後得到你期望的輸出。如果你希望你的輸出和原始輸入一樣,那麼就是最常見的自編碼模型(Auto-Encoder)。可能有人會問,為什麼要輸入輸出都一樣呢?有什麼用啊?其實應用挺廣的,在影象識別,文字分類等等都會用到,我會專門再寫一篇Auto-Encoder的文章來說明,包括一些變種之類的。如果你的輸出和原始輸入不一樣,那麼就是很常見的人工神經網路了,相當於讓原始資料通過一個對映來得到我們想要的輸出資料,也就是我們今天要講的話題。
本文直接舉一個例子,帶入數值演示反向傳播法的過程,公式的推導等到下次寫Auto-Encoder的時候再寫,其實也很簡單,感興趣的同學可以自己推導下試試:)(注:本文假設你已經懂得基本的神經網路構成,如果完全不懂,可以參考Poll寫的筆記:[Mechine Learning & Algorithm] 神經網路基礎)
假設,你有這樣一個網路層:
第一層是輸入層,包含兩個神經元i1,i2,和截距項b1;第二層是隱含層,包含兩個神經元h1,h2和截距項b2,第三層是輸出o1,o2,每條線上標的wi是層與層之間連線的權重,啟用函式我們預設為sigmoid函式。
現在對他們賦上初值,如下圖:
其中,輸入資料 i1=0.05,i2=0.10;
輸出資料 o1=0.01,o2=0.99;
初始權重 w1=0.15,w2=0.20,w3=0.25,w4=0.30;
w5=0.40,w6=0.45,w7=0.50,w8=0.55
目標:給出輸入資料i1,i2(0.05和0.10),使輸出儘可能與原始輸出o1,o2(0.01和0.99)接近。
Step 1 前向傳播
1.輸入層---->隱含層:
計算神經元h1的輸入加權和:
神經元h1的輸出o1:(此處用到啟用函式為sigmoid函式):
同理,可計算出神經元h2的輸出o2:
2.隱含層---->輸出層:
計算輸出層神經元o1和o2的值:
這樣前向傳播的過程就結束了,我們得到輸出值為[0.75136079 , 0.772928465],與實際值[0.01 , 0.99]相差還很遠,現在我們對誤差進行反向傳播,更新權值,重新計算輸出。
Step 2 反向傳播
1.計算總誤差
總誤差:(square error)
但是有兩個輸出,所以分別計算o1和o2的誤差,總誤差為兩者之和:
2.隱含層---->輸出層的權值更新:
以權重引數w5為例,如果我們想知道w5對整體誤差產生了多少影響,可以用整體誤差對w5求偏導求出:(鏈式法則)
下面的圖可以更直觀的看清楚誤差是怎樣反向傳播的:
現在我們來分別計算每個式子的值:
計算:
計算:
(這一步實際上就是對sigmoid函式求導,比較簡單,可以自己推導一下)
計算:
最後三者相乘:
這樣我們就計算出整體誤差E(total)對w5的偏導值。
回過頭來再看看上面的公式,我們發現:
為了表達方便,用來表示輸出層的誤差:
因此,整體誤差E(total)對w5的偏導公式可以寫成:
如果輸出層誤差計為負的話,也可以寫成:
最後我們來更新w5的值:
(其中,是學習速率,這裡我們取0.5)
同理,可更新w6,w7,w8:
3.隱含層---->隱含層的權值更新:
方法其實與上面說的差不多,但是有個地方需要變一下,在上文計算總誤差對w5的偏導時,是從out(o1)---->net(o1)---->w5,但是在隱含層之間的權值更新時,是out(h1)---->net(h1)---->w1,而out(h1)會接受E(o1)和E(o2)兩個地方傳來的誤差,所以這個地方兩個都要計算。
計算:
先計算:
同理,計算出:
兩者相加得到總值:
再計算:
再計算:
最後,三者相乘:
為了簡化公式,用sigma(h1)表示隱含層單元h1的誤差:
最後,更新w1的權值:
同理,額可更新w2,w3,w4的權值:
這樣誤差反向傳播法就完成了,最後我們再把更新的權值重新計算,不停地迭代,在這個例子中第一次迭代之後,總誤差E(total)由0.298371109下降至0.291027924。迭代10000次後,總誤差為0.000035085,輸出為[0.015912196,0.984065734](原輸入為[0.01,0.99]),證明效果還是不錯的。
二、程式碼實踐(Python實現)兩種實現方式
1、第一種程式碼(根據理論公式推導一步步實現程式碼)
import numpy as np
# "pd"偏導
'''
啟用函式
'''
def sigmoid(x):
return 1/(1/+np.exp(-x))
'''
計算啟用函式的偏微分
'''
def sigmoidDerivationx(y):
return y*(1-y)
if __name__ == "__main__":
#初始化
bias = [0.35, 0.60]
weight = [0.15,0.2,0.25,0.3,0.4,0.45,0.5,0.55]
output_layer_weights = [0.4,0.45,0.5,0.55]
#初始值
i1 = 0.05
i2 = 0.10
#目標值
target1 = 0.01
target2 = 0.99
alpha = 0.5 #學習率
numIter = 10000 #迭代次數
for i in range(numIter):
#正向傳播
neth1 = i1*weight[1-1] + i2*weight[2-1] + bias[0]
neth2 = i1*weight[3-1] + i2*weight[4-1] + bias[0]
outh1 = sigmoid(neth1)
outh2 = sigmoid(neth2)
neto1 = outh1*weight[5-1] + outh2*weight[6-1] + bias[1]
neto2 = outh2*weight[7-1] + outh2*weight[8-1] + bias[1]
outo1 = sigmoid(neto1)
outo2 = sigmoid(neto2)
print(str(i)+ ",target1 :" + str(target1-outo1)+",target2 : "+ str(target2-outo2))
if i == numIter-1:
print("lastst result :"+str(outo1)+" "+ str(outo2))
#反向傳播
#計算w5-w8(輸出層權重)的誤差
pdEOuto1 = - (target1-outo1) #對o1輸出的微積分
pdOuto1Neto1 = sigmoidDerivationx(outo1)#對o1啟用函式的積分
pdNeto1W5 = outh1 #對得到neto1的函式中變數w5的微積分
pdEW5 = pdEOuto1 * pdOuto1Neto1 * pdNeto1W5 #用整體的誤差對w5求偏導
pdNeto1W6 = outh2
pdEW6 = pdEOuto1 * pdOuto1Neto1 * pdNeto1W6 #用整體的誤差對w6求偏導
'''
同理用同樣的方法對w7和w8更新
'''
pdEOuto2 = - (target2 - outo2)
pdOuto2Neto2 = sigmoidDerivationx(outo2)
pdNeto1W7 = outh1
pdEW7 = pdEOuto2 * pdOuto2Neto2 * pdNeto1W7
pdNeto1W8 = outh2
pdEW8 = pdEOuto2 * pdOuto2Neto2 * pdNeto1W8
#計算w1-w4(輸出層權重)的誤差
pdEouto1 = -(target1 - outo1) #之前算過
pdEouto2 = -(target2 - outo2) #之前算過
pdOuto1Neto1 = sigmoidDerivationx(outo1) #之前算過
pdOuto2Neto2 = sigmoidDerivationx(outo2) #之前算過
'''
由h1輸出out1到o1的neto1 相當於 y=w*x + b
y為Neto1 和x為Outh1 然後對Outh1微積分得到的值為w
'''
pdNeto1Outh1 = weight[5-1] #對Outh1到Neto1函式中輸入值的
pdNeto2Outh2 = weight[7-1]
'''
求出h1輸出的誤差佔總的誤差的比重
'''
pdEOuth1 = pdEOuto1 * pdOuto1Neto1 * pdNeto1Outh1 + pdEOuto2 * pdOuto2Neto2 * pdNeto1Outh1
pdOuth1Neth1 = sigmoidDerivationx(outh1) #對啟用函式微積分
pdNeth1W1 = i1
pdNeth1W2 = i2
'''
參考公式
'''
pdEW1 = pdEOuth1 * pdOuth1Neth1 * pdNeth1W1
pdEW2 = pdEOuth1 * pdOuth1Neth1 * pdNeth1W2
pdNeto1Outh2 = weight[6-1]
pdNeto2Outh2 = weight[8-1]
pdOuth2Neth2 = sigmoidDerivationx(outh2)
'''
由輸入的公式微積分y = w*x + b可知
'''
pdNeth2W3 = i1
pdNeth2W4 = i2
pdEOuth2 = pdEOuto1 * pdOuto1Neto1 * pdNeto1Outh2 + pdEOuto2 * pdOuto2Neto2 * pdNeto2Outh2
pdEW3 = pdEOuth2 * pdOuth2Neth2 * pdNeth2W3
pdEW4 = pdEOuth2 * pdOuth2Neth2 * pdNeth2W4
#權重更新
weight[1-1] = weight[1-1] - alpha*pdEW1
weight[2-1] = weight[2-1] - alpha*pdEW2
weight[3-1] = weight[3-1] - alpha*pdEW3
weight[4-1] = weight[4-1] - alpha*pdEW4
weight[5-1] = weight[5-1] - alpha*pdEW5
weight[6-1] = weight[6-1] - alpha*pdEW6
weight[7-1] = weight[7-1] - alpha*pdEW7
weight[8-1] = weight[8-1] - alpha*pdEW8
2、第二種程式碼(根據轉換為向量實現簡單的程式碼)
import numpy as np
#設定啟用函式
def sigmoid(x):
return 1/(1+np.exp(-x))
#計算啟用函式的偏微分
def sigmoidDerivationx(y):
return y * (1-y)
if __name__ == "__main__":
alpha = 0.05 #設定學習率
numIter = 100000 #迭代次數
w1 = [[0.15,0.20],[0.25,0.30]] #輸出層的權重
w2 = [[0.40,0.45],[0.50,0.55]] #權重矩陣的維度
b1 = 0.35
b2 = 0.60
x = [0.05,0.10] #初始化輸入
y = [0.01,0.99] #初始化對應的輸出label
z1 = np.dot(w1,x) + b1
a1 = sigmoid(z1) #啟用函式,第一層激勵值
z2 = np.dot(w2,x) + b2
a2 = sigmoid(z2) #第二層激勵值
for n in range(numIter):
'''
反向傳播,使用代價函式c = 1/(2n)*sum[y-a2]^2
最後一層的梯度delta
'''
delta2 = np.multiply(-(y - a2),np.multiply(a2,1-a2))
'''
delta2這兩項乘積由來,第一個引數是代價函式對a2求的偏導(實際上得到的就是真實輸出值與預測值之間的誤差而已)
第二個引數是激勵值得導數,二者相乘最後得梯度的變化值
非最後一層的梯度delta(即隱含層),演算法與最後一層不一樣,因為其沒有輸出預測值,我們用下一層誤差的加權和來代替真實值與預測值的差
'''
delta1 = np.multiply(np.dot(np.array(w2).T, delta2), np.multiply(a1, 1 - a1))
# 關鍵是要明白計算的過程與理論基礎
# 計算完權重的變化後(即delta),更新權重,delta也可以稱為梯度的變化
for i in range(len(w2)):
w2[i] = w2[i] -alpha*delta2[i]*a1
for i in range(len(w1)):
w1[i] = w1[i] -alpha*delta1[i]*np.array(x)
#繼續向前傳播,算出誤差值
s
z1 = np.dot(w1,x) + b1 #用新的權重值在計算一遍激勵值
a1 = sigmoid(z1)
z2 = np.dot(w2,a1) + b2
a2 = sigmoid(z2)
print(str(n) + "result: "+str(a2[0])+",result: "+str(a2[1]))
# 輸出迭代後的預測值
print(str(n) + "error1: "+str(y[0] - a2[0])+ ",error2: "+str(y[1] - a2[1]))
# 輸出誤差,可以通過改變迭代次數來檢視效果
實驗結果:
目錄
一、理論說明(需要有簡單的神經網路原理知識,建議看吳恩達deep learning學習視訊):