1. 程式人生 > >優化算法比較的實驗結果比較(BGD,SGD,MBGD,Momentum,Nesterov,Adagrad,RMSprop)

優化算法比較的實驗結果比較(BGD,SGD,MBGD,Momentum,Nesterov,Adagrad,RMSprop)

網上 deep adagrad delta 最優化 優化算法 最優 http 但是

最近在學習神經網絡的優化算法,發現網上有很多的算法介紹,但是卻沒有算法實現和實驗對比,所以我就用python實現了BGD,SGD,MBGD,Momentum,Nesterov,Adagrad,RMSprop等算法,另外的Adam和NAdam算法是將Momentum,Nesterov,Adagrad幾項合並起來的算法,屬於工程方面的內容,所以我就沒有實現了。
算法原理主要參考文獻是:
整體算法參考:深度解讀最流行的優化算法:梯度下降
整體算法參考:深度學習最全優化方法總結比較(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)
Momentum 算法實現參考: Deep Learning 最優化方法之Nesterov(牛頓動量)

優化算法比較的實驗結果比較(BGD,SGD,MBGD,Momentum,Nesterov,Adagrad,RMSprop)