1. 程式人生 > >吳恩達機器學習筆記4-單變量線性回歸

吳恩達機器學習筆記4-單變量線性回歸

alt 方法 bsp 目標 .com 函數 bubuko 機器學習 絕對值

今天看個5個課時的視頻,對假設函數、代價函數、以及梯度下降有了一個大概的了解。

假設函數:技術分享圖片

代價函數:技術分享圖片

我們的目標就是求得J的最小值

梯度下降:在一個上坡上找一個點,求得這個點周圍的絕對值最大的導數(即坡度最大的方向),走一段距離,在重復上面找最小的導數,一直找到這個方向的最小點。

然後在上一個點偏移一些找另一個點,重復上面,又延伸出另一個方向的最小點

一直重復上面動作,各個方向的最小點相互比較,找出最小點,這就是J的最小值。

也可以用這種方法求各種函數的最小值。

這是一張3d圖,幫助理解上面所說的。

技術分享圖片

找坡度最大的方向:

技術分享圖片

吳恩達機器學習筆記4-單變量線性回歸