1. 程式人生 > >【深度學習】網路調參

【深度學習】網路調參

1. 網路層數

CNN:小卷積核,深網路。

RNN:淺網路,最多2層,因為rnn本身就是自迴圈的,展開之後已經很深。

2. 啟用函式

relu,tanh,sigmoid。一般來說,relu可以稍微減緩過擬合。

3. mini-batch size

一般10~100。因為在一個batch上bp更新梯度, 當用隨機梯度下降時,最好設定的小一點;當採用一些優化演算法時,可以設定稍微大一些。

4. 防止過擬合

dropout,L1/L2 regulation,batch normalization, early stopping。

未完待續...