1. 程式人生 > >caffe的python接口學習(2)生成solver文件

caffe的python接口學習(2)生成solver文件

慢慢 oot __name__ nap gpu 計算 snapshot pro copy

caffe在訓練的時候,需要一些參數設置,我們一般將這些參數設置在一個叫solver.prototxt的文件裏面

有一些參數需要計算的,也不是亂設置。

假設我們有50000個訓練樣本,batch_size為64,即每批次處理64個樣本,那麽需要叠代50000/64=782次才處理完一次全部的樣本。我們把處理完一次所有的樣本,稱之為一代,即epoch。所以,這裏的test_interval設置為782,即處理完一次所有的訓練數據後,才去進行測試。如果我們想訓練100代,則需要設置max_iter為78200.

同理,如果有10000個測試樣本,batch_size設為32,那麽需要叠代10000/32=313次才完整地測試完一次,所以設置test_iter為313.

學習率變化規律我們設置為隨著叠代次數的增加,慢慢變低。總共叠代78200次,我們將變化lr_rate三次,所以stepsize設置為78200/3=26067,即每叠代26067次,我們就降低一次學習率。

下面是生成solver文件的python代碼,比較簡單:

技術分享圖片
# -*- coding: utf-8 -*-
"""
Created on Sun Jul 17 18:20:57 2016

@author: root
"""
path=/home/xxx/data/
solver_file=path+solver.prototxt#solver文件保存位置

sp={}
sp[train_net‘]=‘“’+path+train.prototxt”# 訓練配置文件
sp[test_net‘]=‘“’+path+val.prototxt”# 測試配置文件
sp[test_iter‘]=313# 測試叠代次數
sp[test_interval‘]=782# 測試間隔
sp[base_lr‘]=0.001# 基礎學習率
sp[display‘]=782# 屏幕日誌顯示間隔
sp[max_iter‘]=78200# 最大叠代次數
sp[lr_policy‘]=‘“step”# 學習率變化規律
sp[gamma‘]=0.1# 學習率變化指數
sp[momentum‘]=0.9# 動量
sp[weight_decay‘]=0.0005# 權值衰減
sp[stepsize‘]=26067# 學習率變化頻率
sp[snapshot‘]=7820# 保存model間隔
sp[snapshot_prefix‘]=‘"snapshot"’       # 保存的model前綴
sp[solver_mode‘]=GPU# 是否使用gpu
sp[solver_type‘]=SGD# 優化算法

def write_solver():
    #寫入文件
    with open(solver_file, w) as f:
        for key, value in sorted(sp.items()):
            if not(type(value) is str):
                raise TypeError(All solver parameters must be strings)
            f.write(%s: %s\n‘ % (key, value))
if __name__ == __main__:
    write_solver()
技術分享圖片

執行上面的文件,我們就會得到一個solver.prototxt文件,有了這個文件,我們下一步就可以進行訓練了。

caffe的python接口學習(2)生成solver文件