吳恩達機器學習筆記4-單變量線性回歸
阿新 • • 發佈:2018-09-04
alt 方法 bsp 目標 .com 函數 bubuko 機器學習 絕對值
今天看個5個課時的視頻,對假設函數、代價函數、以及梯度下降有了一個大概的了解。
假設函數:
代價函數:
我們的目標就是求得J的最小值
梯度下降:在一個上坡上找一個點,求得這個點周圍的絕對值最大的導數(即坡度最大的方向),走一段距離,在重復上面找最小的導數,一直找到這個方向的最小點。
然後在上一個點偏移一些找另一個點,重復上面,又延伸出另一個方向的最小點
一直重復上面動作,各個方向的最小點相互比較,找出最小點,這就是J的最小值。
也可以用這種方法求各種函數的最小值。
這是一張3d圖,幫助理解上面所說的。
找坡度最大的方向:
吳恩達機器學習筆記4-單變量線性回歸