1. 程式人生 > >吳恩達機器學習課程作業tips(更新中)

吳恩達機器學習課程作業tips(更新中)

ex4,

一開始做的時候,卡在了代價函式這裡,建議大家用for迴圈來練習這道題目,真正理解神經網路演算法和one-vs-all演算法的不同。

這個式子的重點在於計算

one-vs-all,十個分類器,分別做十次logistic迴歸。每一個的結果h_\theta(x)都要和y求誤差。也就是10次計算。再有5000個樣本,所以是10*5000次計算。

而對於神經網路演算法,output layer有十個units,每一個unit和對應y的unit求誤差,也就是10次計算。再有5000個樣本,所以是10*5000次計算。也就是式子中顯示的兩層求和,K*m。

而不是每一個outputlayer的unit和每一個y都求誤差,那就是10*10*5000(K*m*m)次計算。

ex5 

Regularized Linear Regression a nd Bias v.s.Variance

這邊的問題不大,主要是在求regularized linear regression cost function,線性迴歸正則代價函式。發現總是會給懲罰項從1開始積分,但是實數項的theta是不用積分的。