1. 程式人生 > >梯度下降與梯度上升的區別

梯度下降與梯度上升的區別

我們往往能看到在對模型進行優化時,有的說用梯度下降,有的說用梯度上升,這是為什麼呢。最主要是因為目標不一樣,梯度下降是求區域性極小值,而梯度上升是求區域性最大值。

如logistic的目標函式:
這裡寫圖片描述
這裡的優化目標是出現的概率值,我們要求概率的最大值,也就是MLE(極大似然估計),所以用梯度上升法。

而線性迴歸的代價函式為:
這裡寫圖片描述
優化的目標值是誤差,我們要求誤差最小值,所以使用的是梯度下降演算法。