1. 程式人生 > >關於《深度學習》書中,第十一章中學習率過低會導致訓練誤差高位擾動的問題的猜想

關於《深度學習》書中,第十一章中學習率過低會導致訓練誤差高位擾動的問題的猜想

關於《深度學習》書中,第十一章中學習率過低會導致訓練誤差高位擾動的問題的猜想
首先,凸問題中不存在,證明在二階偏導的情況下,即資料中有一個明顯的誤差下降方向時,不會造成這種情況。
這裡就得到了兩個條件,非凸且學習率過低。
過低,低到什麼程度,我們大膽猜測是由於低於了資料的擾動誤差,即觀測誤差,或者是不可避免誤差,這個誤差可能是貝葉斯誤差,在這個範圍內,非凸函式的不斷震盪,使得網路在一個區域性區間內同樣發生震盪,而且由於擾動過小,無法在真實空間內前進,而是在一個誤差空間內不斷遊走。
不知道寫這個東西的時候,有沒有論文解決這個問題,但還是寫了下來。