1. 程式人生 > >深度學習中的優化演算法

深度學習中的優化演算法

標準梯度下降法: 標準梯度下降先計算所有樣本彙總誤差,然後根據總誤差來更新權值 缺點:當訓練樣本比較大時,更新一次權值需要的時間比較長,因為要將所有的樣本都訓練一次才更新權值。 隨機梯度下降法: 隨機梯度下降隨機抽取一個樣本來計算誤差,然後更新權值 缺點:更新權值雖然非常快,但可能引入比較多的噪聲,因為重新的更新方向可能是錯誤的方向。 批量梯度下降法: 批量梯度下降算是一種折中的方案,從總樣本中選取一個批次(比如一共有10000個樣本,隨機選取100個樣本 作為一個batch),然後計算這個batch的總誤差,根據總誤差來更新權值。是標準梯度下降法和隨機梯度下降法的一個折中方案。