1. 程式人生 > >caffe 有關prototxt檔案的設定解讀

caffe 有關prototxt檔案的設定解讀

版權宣告:本文為博主原創文章,未經博主允許不得轉載。    https://blog.csdn.net/u014696921/article/details/52166015
solver算是caffe的核心的核心,它協調著整個模型的運作。caffe程式執行必帶的一個引數就是solver配置檔案。執行程式碼一般為

[plain] view plain copy
 
./bulid/tools/caffe train -solver  *_solver.prototxt  

在Deep Learning中,往往loss function是非凸的,沒有解析解,我們需要通過優化方法來求解。solver的主要作用就是交替呼叫前向(forward)演算法和後向(backward)演算法來更新引數,從而最小化loss,實際上就是一種迭代的優化演算法。

 到目前的版本,caffe提供了六種優化演算法來求解最優引數,在solver配置檔案中,通過設定type型別來選擇。

·        Stochastic Gradient Descent (type:"SGD"),

·        AdaDelta (type:"AdaDelta"),

·        Adaptive Gradient (type:"AdaGrad"),

·        Adam (type: "Adam"),

·        Nesterov’s Accelerated Gradient (type: "Nesterov") and

·        RMSprop (type:"RMSProp")

Solver的流程:

1.     設計好需要優化的物件,以及用於學習的訓練網路和用於評估的測試網路。(通過呼叫另外一個配置檔案prototxt來進行)

2.     通過forward和backward迭代的進行優化來跟新引數。

3.     定期的評價測試網路。 (可設定多少次訓練後,進行一次測試)

4.     在優化過程中顯示模型和solver的狀態

在每一次的迭代過程中,solver做了這幾步工作:

1、呼叫forward演算法來計算最終的輸出值,以及對應的loss

2、呼叫backward演算法來計算每層的梯度

3、根據選用的slover方法,利用梯度進行引數更新

4、記錄並儲存每次迭代的學習率、快照,以及對應的狀態。

接下來,我們先來看一個例項:

[plain] view plain copy
 
net: "examples/mnist/lenet_train_test.prototxt"  
test_iter: 100  
test_interval: 500  
base_lr: 0.01  
momentum: 0.9  
type: SGD  
weight_decay: 0.0005  
lr_policy: "inv"  
gamma: 0.0001  
power: 0.75  
display: 100  
max_iter: 20000  
snapshot: 5000  
snapshot_prefix: "examples/mnist/lenet"  
solver_mode: CPU  
接下來,我們對每一行進行詳細解譯:

[plain] view plain copy
 
net: "examples/mnist/lenet_train_test.prototxt"  

設定網路模型。每一個模型就是一個net,需要在一個專門的配置檔案中對net進行配置,每個net由許多的layer所組成。注意的是:檔案的路徑要從caffe的根目錄開始,其它的所有配置都是這樣。

接下來第二行:

test_iter: 100

這個要與test layer中的batch_size結合起來理解。mnist資料中測試樣本總數為10000,一次性執行全部資料效率很低,因此我們將測試資料分成幾個批次來執行,每個批次的數量就是batch_size。假設我們設定batch_size為100,則需要迭代100次才能將10000個數據全部執行完。因此test_iter設定為100。執行完一次全部資料,稱之為一個epoch。


[plain] view plain copy
 
test_interval: 500  
測試間隔。也就是每訓練500次,才進行一次測試。

[plain] view plain copy
 
base_lr: 0.01  
lr_policy: "inv"  
gamma: 0.0001  
power: 0.75  
這四行可以放在一起理解,用於學習率的設定。只要是梯度下降法來求解優化,都會有一個學習率,也叫步長。base_lr用於設定基礎學習率,在迭代的過程中,可以對基礎學習率進行調整。怎麼樣進行調整,就是調整的策略,由lr_policy來設定。
lr_policy可以設定為下面這些值,相應的學習率的計算為:


- fixed:   保持base_lr不變.
- step:    如果設定為step,則還需要設定一個stepsize,  返回 base_lr * gamma ^ (floor(iter / stepsize)),其中iter表示當前的迭代次數
- exp:     返回base_lr * gamma ^ iter, iter為當前迭代次數
- inv:      如果設定為inv,還需要設定一個power, 返回base_lr * (1 + gamma * iter) ^ (- power)
- multistep: 如果設定為multistep,則還需要設定一個stepvalue。這個引數和step很相似,step是均勻等間隔變化,而multistep則是根據                                 stepvalue值變化
- poly:     學習率進行多項式誤差, 返回 base_lr (1 - iter/max_iter) ^ (power)
- sigmoid: 學習率進行sigmod衰減,返回 base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))
multistep示例:
[plain] view plain copy
 
base_lr: 0.01  
momentum: 0.9  
weight_decay: 0.0005  
# The learning rate policy  
lr_policy: "multistep"  
gamma: 0.9  
stepvalue: 5000  
stepvalue: 7000  
stepvalue: 8000  
stepvalue: 9000  
stepvalue: 9500  
接下來的引數:
[plain] view plain copy
 
momentum :0.9  
上一次梯度更新的權重

[plain] view plain copy
 
type: SGD  
優化演算法選擇。這一行可以省掉,因為預設值就是SGD。總共有六種方法可選擇,在本文的開頭已介紹。

[plain] view plain copy
 
weight_decay: 0.0005  
權重衰減項,防止過擬合的一個引數。

[plain] view plain copy
 
display: 100  
每訓練100次,在螢幕上顯示一次。如果設定為0,則不顯示。
[plain] view plain copy
 
max_iter: 20000  
最大迭代次數。這個數設定太小,會導致沒有收斂,精確度很低。設定太大,會導致震盪,浪費時間。

[plain] view plain copy
 
snapshot: 5000  
snapshot_prefix: "examples/mnist/lenet"  
快照。將訓練出來的model和solver狀態進行儲存,snapshot用於設定訓練多少次後進行儲存,預設為0,不儲存。snapshot_prefix設定儲存路徑。
還可以設定snapshot_diff,是否儲存梯度值,預設為false,不儲存。

也可以設定snapshot_format,儲存的型別。有兩種選擇:HDF5 和BINARYPROTO ,預設為BINARYPROTO


[plain] view plain copy
 
solver_mode: CPU  

設定執行模式。預設為GPU,如果你沒有GPU,則需要改成CPU,否則會出錯。
 注意:以上的所有引數都是可選引數,都有預設值。根據solver方法(type)的不同,還有一些其它的引數,在此不一一列舉。
--------------------- 
作者:2014wzy 
來源:CSDN 
原文:https://blog.csdn.net/u014696921/article/details/52166015 
版權宣告:本文為博主原創文章,轉載請附上博文連結!