1. 程式人生 > >線性回歸的梯度下降

線性回歸的梯度下降

初始 應用 連接 alt wid png 分享 sub 線性回歸

Note: [At 6:15 "h(x) = -900 - 0.1x" should be "h(x) = 900 - 0.1x"]

當具體應用於線性回歸的情況下,可以推導出一種新的梯度下降方程。我們可以用我們實際的成本函數和我們實際的假設函數來代替,並將公式修改為:

技術分享

其中M是訓練集的規模,θ0常數,將與θ1和xi同時變化的,yi是給定的訓練集值(數據)。

註意,我們一句把θj分成獨立的θ0和θ1,θ1我們乘xi最後求導

技術分享

這一切的關鍵是,如果我們從猜測我們的假設開始,然後反復應用這些梯度下降方程,我們的假設將變得越來越精確。

因此,這只是原始成本函數J的梯度下降。這個方法是在每個步驟的每個訓練集中的每一個例子,被稱為批量梯度下降。需要註意的是,在梯度下降易總的局部極小值,優化問題,我們在這裏提出的線性回歸只有一個全球性的,並沒有其他的地方,因此總是收斂的最優解;梯度下降(假設學習率α不太大)的全球最低。實際上,j是凸二次函數。這裏是一個梯度下降的例子,它是為了最小化二次函數而運行的。

技術分享

上面所示的橢圓是二次函數的輪廓。也表明是通過梯度下降的軌跡,它被初始化為(48,30)。X在圖(連接的直線)的標誌,θ梯度穿過它收斂到最小的連續值

線性回歸的梯度下降