1. 程式人生 > >批量梯度下降法(Batch Gradient Descent)

批量梯度下降法(Batch Gradient Descent)

所有 margin 初始 ont 模型 log eight 梯度下降 img

批量梯度下降:在梯度下降的每一步中都用到了所有的訓練樣本。

思想:找能使代價函數減小最大的下降方向(梯度方向)。

    ΔΘ = - αJ α:學習速率

梯度下降的線性回歸

  線性模型的代價函數:

    技術分享

技術分享

  對於更新項,為什麽是 - α▽J :

  Θ如果在極值點右邊,偏導大於0,則Θ要減去偏導的值(Θ偏大,減去一個正值)

  Θ如果在極值點左邊,偏導小於0,則Θ要減去偏導的值(Θ偏小,減去一個負值)

技術分享

  實現方法:同步更新每個Θ

技術分享

  特點:梯度下降法即使α取很大也可以收斂到局部最小值。

     隨著算法的進行,越接近最小值點偏導的那一項越小,Θ的變化量也就越小。

技術分享

  圖中可以看出,初始Θ取粉色點所在的值,隨著算法的進行步長越來越小。

批量梯度下降法(Batch Gradient Descent)