吳恩達機器學習學習筆記(四)(附作業程式碼註釋)
吳恩達機器學習學習筆記(四)
標籤: 機器學習
代價函式與反向傳播(Costfunction and Backpropagation)
一.代價函式
L:代表神經網路的層數
s_l
k代表輸出層的單元數
二元分類問題時:
y=0 或者 y=1
僅有一個輸出,s_l
k=0
當多元分類k=0問題時:
s_l
y為一個K維矩陣,有k個輸出單元
1邏輯分類的評價函式:
J(\theta) = - \frac{1}{m} \sum_{i=1}^m [ y^{(i)}\ \log (h_\theta (x^{(i)})) + (1 - y^{(i)})\ \log (1 - h_\theta(x^{(i)}))] + \frac{\lambda}{2m}\sum_{j=1}^n \theta_j^2
2.神經網路的評價函式:
2.1note:
1.這兩項簡單相加就可以計算出輸出層中每個單元的邏輯迴歸成本。
2.三重平方和簡單地加起來的是所有
2.三重平方和中的i不指訓練樣本i。
3.反向傳播
訓練集:
令
for i in range m:
1.
2.使用正向傳播計算出所有的
3.用
4.計算出
note:
5.
總偏導數: