1. 程式人生 > >梯度下降法和誤差反向傳播推導

梯度下降法和誤差反向傳播推導

梯度下降法原理

梯度下降法的示意圖如下
這裡寫圖片描述

前提:假設x⃗ 1×my⃗ 1×n的向量有一個函式關係y⃗ =f(x⃗ |θ),其中θ是一個l維的引數向量,為例擬合初函式f.
現有,k組觀測值,得到訓練集矩陣Xk×mYk×n.誤差就是

J=12i=1k[f(Xi|θ)Yi]2
上式可以將XY看作是已知常數,其中XiYiXY的第i行.
上式形成了一個誤差曲面,即J是個關於θ的函式
為了求得θ的值使得誤差最小,如上圖所示,可以向梯度的反方向搜尋,有
Δθθnew===αerrorθαi=1k[f(Xi|θ)Yi]f(Xi|θ)θθoldΔθ
當然,當f是線性函式的時候,引數是個開口向上的二次曲面,
f
(x⃗ )=θ0+θ1x1+θ2x2++θmxm

fθj=xj
Δθj==αerrorθjαi=1k[ii=0mθiixiiYi]xj
其中x0=1為偏置

神經網路的誤差反向傳播

一個神經元結構
簡單的神經網路
上面兩圖是簡單的神經元和神經網路模型
模型假設:
現在假設神經元有三層
從上到下的座標為kji,每一層的輸入都是下一層的輸出,函式f為神經元的啟用函式,每個神經元連線下一層第i個神經元的權值為wi,神經元的輸出為y=f(net),其中net=