1. 程式人生 > >深度神經網路-keras-調參經驗

深度神經網路-keras-調參經驗

keras搬磚系列-調參經驗

1,觀察loss勝於觀察準確率,loss設計要比較合理,對比訓練集和驗證集的loss

2,relu可以很好的防止梯度彌散的問題,當然最後一層啟用函式儘量別用relu,如果分類則用softmax


3,BatchNorm 可以大大加快訓練速度和模型的效能

4,Dropout防止過擬合,可以直接設定為0.5,一半一半,測試的時候把Dropout關掉


5,Loss選擇,一般來說分類就是softmax,迴歸就是L2的loss,但是loss的錯誤範圍(主要是迴歸)預測一個10000的值,模型輸出為0
6,準確率是一個評測指標,但是訓練過程中loss你會發現有些情況,準確率是突變的,原來一直是0,可能保持上千迭代,然後變1。而loss不會有那麼詭異的發生,畢竟優化目標為loss

7,學習率設定得合理,太大loss爆炸,太小則沒有反應

8,對不訓練集和驗證集的loss,判斷過擬合,訓練是否足夠,是否需要Early Stop