1. 程式人生 > >Caffe學習系列(7):solver及其配置

Caffe學習系列(7):solver及其配置

solver算是caffe的核心的核心,它協調著整個模型的運作。caffe程式執行必帶的一個引數就是solver配置檔案。執行程式碼一般為

# caffe train --solver=*_slover.prototxt

在Deep Learning中,往往loss function是非凸的,沒有解析解,我們需要通過優化方法來求解。solver的主要作用就是交替呼叫前向(forward)演算法和後向(backward)演算法來更新引數,從而最小化loss,實際上就是一種迭代的優化演算法。

到目前的版本,caffe提供了六種優化演算法來求解最優引數,在solver配置檔案中,通過設定type型別來選擇。

  • Stochastic Gradient Descent (type: "SGD"),
  • AdaDelta (type: "AdaDelta"),
  • Adaptive Gradient (type: "AdaGrad"),
  • Adam (type: "Adam"),
  • Nesterov’s Accelerated Gradient (type: "Nesterov") and
  • RMSprop (type: "RMSProp")

 具體的每種方法的介紹,請看本系列的下一篇文章, 本文著重介紹solver配置檔案的編寫。

Solver的流程:

1.     設計好需要優化的物件,以及用於學習的訓練網路和用於評估的測試網路。(通過呼叫另外一個配置檔案prototxt來進行)

2.     通過forward和backward迭代的進行優化來跟新引數。

3.     定期的評價測試網路。 (可設定多少次訓練後,進行一次測試)

4.     在優化過程中顯示模型和solver的狀態

在每一次的迭代過程中,solver做了這幾步工作:

1、呼叫forward演算法來計算最終的輸出值,以及對應的loss

2、呼叫backward演算法來計算每層的梯度

3、根據選用的slover方法,利用梯度進行引數更新

4、記錄並儲存每次迭代的學習率、快照,以及對應的狀態。

接下來,我們先來看一個例項:

複製程式碼
net: "examples/mnist/lenet_train_test.prototxt
" test_iter: 100 test_interval: 500 base_lr: 0.01 momentum: 0.9 type: SGD weight_decay: 0.0005 lr_policy: "inv" gamma: 0.0001 power: 0.75 display: 100 max_iter: 20000 snapshot: 5000 snapshot_prefix: "examples/mnist/lenet" solver_mode: CPU
複製程式碼

接下來,我們對每一行進行詳細解譯:

net: "examples/mnist/lenet_train_test.prototxt"

設定深度網路模型。每一個模型就是一個net,需要在一個專門的配置檔案中對net進行配置,每個net由許多的layer所組成。每一個layer的具體配置方式可參考本系列文文章中的(2)-(5)。注意的是:檔案的路徑要從caffe的根目錄開始,其它的所有配置都是這樣。

也可用train_net和test_net來對訓練模型和測試模型分別設定。例如:

train_net: "examples/hdf5_classification/logreg_auto_train.prototxt"
test_net: "examples/hdf5_classification/logreg_auto_test.prototxt"

接下來第二行:

test_iter: 100

這個要與test layer中的batch_size結合起來理解。mnist資料中測試樣本總數為10000,一次性執行全部資料效率很低,因此我們將測試資料分成幾個批次來執行,每個批次的數量就是batch_size。假設我們設定batch_size為100,則需要迭代100次才能將10000個數據全部執行完。因此test_iter設定為100。執行完一次全部資料,稱之為一個epoch

test_interval: 500

測試間隔。也就是每訓練500次,才進行一次測試。

base_lr: 0.01
lr_policy: "inv"
gamma: 0.0001
power: 0.75

這四行可以放在一起理解,用於學習率的設定。只要是梯度下降法來求解優化,都會有一個學習率,也叫步長。base_lr用於設定基礎學習率,在迭代的過程中,可以對基礎學習率進行調整。怎麼樣進行調整,就是調整的策略,由lr_policy來設定。

lr_policy可以設定為下面這些值,相應的學習率的計算為:

    • - fixed:   保持base_lr不變.
    • - step:    如果設定為step,則還需要設定一個stepsize,  返回 base_lr * gamma ^ (floor(iter / stepsize)),其中iter表示當前的迭代次數
    • - exp:     返回base_lr * gamma ^ iter, iter為當前迭代次數
    • - inv:      如果設定為inv,還需要設定一個power, 返回base_lr * (1 + gamma * iter) ^ (- power)
    • - multistep: 如果設定為multistep,則還需要設定一個stepvalue。這個引數和step很相似,step是均勻等間隔變化,而multistep則是根據                                 stepvalue值變化
    • - poly:     學習率進行多項式誤差, 返回 base_lr (1 - iter/max_iter) ^ (power)
    • - sigmoid: 學習率進行sigmod衰減,返回 base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))

multistep示例:

複製程式碼
base_lr: 0.01
momentum: 0.9
weight_decay: 0.0005
# The learning rate policy
lr_policy: "multistep"
gamma: 0.9
stepvalue: 5000
stepvalue: 7000
stepvalue: 8000
stepvalue: 9000
stepvalue: 9500
複製程式碼

接下來的引數:

momentum :0.9

上一次梯度更新的權重,具體可參看下一篇文章。

type: SGD

優化演算法選擇。這一行可以省掉,因為預設值就是SGD。總共有六種方法可選擇,在本文的開頭已介紹。

weight_decay: 0.0005

權重衰減項,防止過擬合的一個引數。

display: 100

每訓練100次,在螢幕上顯示一次。如果設定為0,則不顯示。

max_iter: 20000

最大迭代次數。這個數設定太小,會導致沒有收斂,精確度很低。設定太大,會導致震盪,浪費時間。

snapshot: 5000
snapshot_prefix: "examples/mnist/lenet"

快照。將訓練出來的model和solver狀態進行儲存,snapshot用於設定訓練多少次後進行儲存,預設為0,不儲存snapshot_prefix設定儲存路徑。

還可以設定snapshot_diff,是否儲存梯度值,預設為false,不儲存。

也可以設定snapshot_format,儲存的型別。有兩種選擇:HDF5 和BINARYPROTO ,預設為BINARYPROTO

solver_mode: CPU

設定執行模式。預設為GPU,如果你沒有GPU,則需要改成CPU,否則會出錯。

注意:以上的所有引數都是可選引數,都有預設值。根據solver方法(type)的不同,還有一些其它的引數,在此不一一列舉。

相關推薦

Caffe學習系列(7)solver及其配置

solver算是caffe的核心的核心,它協調著整個模型的運作。caffe程式執行必帶的一個引數就是solver配置檔案。執行程式碼一般為 # caffe train --solver=*_slover.prototxt 在Deep Learning中,往往loss

Caffe傻瓜系列(7)solver優化方法

 上文提到,到目前為止,caffe總共提供了六種優化方法: Stochastic Gradient Descent (type: "SGD"),AdaDelta (type: "AdaDelta"),Adaptive Gradient (type: "AdaGrad"),Adam (type: "

7Caffe學習系列solver及其配置

solver算是caffe的核心的核心,它協調著整個模型的運作。caffe程式執行必帶的一個引數就是solver配置檔案。執行程式碼一般為 $ caffe train --solver=*_slover.prototxt 在Deep Learning中,往往loss function是非凸的

Caffe學習系列(1)安裝配置ubuntu14.04+cuda7.5+caffe+cudnn

一、版本 linux系統:Ubuntu 14.04 (64位) 顯示卡:Nvidia K20c cuda: cuda_7.5.18_linux.run cudnn: cudnn-7.0-linux-x64-v4.0-rc 二、下載 Ubuntu 14.04下載地址:http://www.ubunt

Caffe學習系列(13)資料視覺化環境(python介面)配置 jupyter notebook

caffe程式是由c++語言寫的,本身是不帶資料視覺化功能的。只能藉助其它的庫或介面,如opencv, python或matlab。大部分人使用python介面來進行視覺化,因為python出了個比較強大的東西:ipython notebook, 現在的最新版本改名叫jupyter notebook,它能將

【2】Caffe學習系列(11)影象資料轉換成db(leveldb/lmdb)檔案

在深度學習的實際應用中,我們經常用到的原始資料是圖片檔案,如jpg,jpeg,png,tif等格式的,而且有可能圖片的大小還不一致。而在caffe中經常使用的資料型別是lmdb或leveldb,因此就產生了這樣的一個問題:如何從原始圖片檔案轉換成caffe中能夠執行的db(l

強化學習系列7無模型的蒙特卡洛法

1. 無模型問題 在很多時候,我們無法得知模型資訊,比如前幾節的蛇棋中,我們不知道棋盤梯子的資訊和骰子的資訊,用數學化的方法來說,就是我們用於決策的智慧體不知道狀態轉移概率 P

Caffe學習系列(14)初識資料視覺化

轉載自http://www.cnblogs.com/denny402/p/5092075.html 在jupyter notebook裡 首先將caffe的根目錄作為當前目錄,然後載入caffe程式自帶的小貓圖片,並顯示。 圖片大小為360x480,三通道 In [

GANs學習系列(7) 拉普拉斯金字塔生成式對抗網路Laplacian Pyramid of Adversarial Networks

【前言】      本文首先介紹生成式模型,然後著重梳理生成式模型(Generative Models)中生成對抗網路(Generative Adversarial Network)的研究與發展。作者按照GAN主幹論文、GAN應用性論文、GAN相關論文分類整理了45篇近

Caffe學習系列(20)用訓練好的caffemodel來進行分類

#coding=utf-8 #載入必要的庫 import numpy as npimport sys,os #設定當前目錄 caffe_root = '/home/xxx/caffe/' sys.path.insert(0, caffe_root + 'python') import caffe os.c

Caffe學習系列(21)caffe圖形化操作工具digits的安裝與執行

經過前面一系列的學習,我們基本上學會了如何在linux下執行caffe程式,也學會了如何用python介面進行資料及引數的視覺化。 也許有人會覺得比較複雜。確實,對於一個使用慣了windows視窗操作的使用者來說,各種命令就要了人命,甚至會非常抵觸命令操作。沒有學過python,要自己去用python程

Caffe學習系列(22)caffe圖形化操作工具digits執行例項

經過前面的操作,我們就把資料準備好了。 一、訓練一個model 右擊右邊Models模組的” Images" 按鈕 ,選擇“classification" 在開啟頁面右下角可以看到,系統提供了一個caffe model,分別為LeNet, AlexNet, GoogLeNet, 如果使用這三個模型,

Caffe學習系列(23)如何將別人訓練好的model用到自己的資料上

caffe團隊用imagenet圖片進行訓練,迭代30多萬次,訓練出來一個model。這個model將圖片分為1000類,應該是目前為止最好的圖片分類model了。 假設我現在有一些自己的圖片想進行分類,但樣本量太小,可能只有幾百張,而一般深度學習都要求樣本量在1萬以上,因此訓練出來的model精度太低,根

【13】Caffe學習系列資料視覺化環境(python介面)配置

caffe程式是由c++語言寫的,本身是不帶資料視覺化功能的。只能藉助其它的庫或介面,如opencv, python或matlab。更多人會使用python介面來進行視覺化,因為python出了個比較強大的東西:ipython notebook, 現在的最新版本改名叫jupyter notebook

【8】Caffe學習系列solver優化方法

上文提到,到目前為止,caffe總共提供了六種優化方法: Stochastic Gradient Descent (type: "SGD"), AdaDelta (type: "AdaDelta"), Adaptive Gradient (type: "AdaGrad"),

【6】Caffe學習系列Blob,Layer and Net以及對應配置檔案的編寫

深度網路(net)是一個組合模型,它由許多相互連線的層(layers)組合而成。Caffe就是組建深度網路的這樣一種工具,它按照一定的策略,一層一層的搭建出自己的模型。它將所有的資訊資料定義為blobs,從而進行便利的操作和通訊。Blob是caffe框架中一種標準的陣列,一種統一的記憶體介面,它詳細

Caffe學習系列資料視覺化環境(python介面)配置

caffe程式是由c++語言寫的,本身是不帶資料視覺化功能的。只能藉助其它的庫或介面,如opencv, Python或matlab。大部分人使用python介面來進行視覺化,因為python出了個比較強大的東西:ipython notebook, 現在的最新版本改名叫ju

Caffe傻瓜系列(6):solver及其配置

test_iter: 100 這個要與test layer中的batch_size結合起來理解。mnist資料中測試樣本總數為10000,一次性執行全部資料效率很低,因此我們將測試資料分成幾個批次來執行,每個批次的數量就是batch_size。假設我們設定batch_size為100,則需要迭代100次才能將

【14】Caffe學習系列計算圖片資料的均值

圖片減去均值後,再進行訓練和測試,會提高速度和精度。因此,一般在各種模型中都會有這個操作。 那麼這個均值怎麼來的呢,實際上就是計算所有訓練樣本的平均值,計算出來後,儲存為一個均值檔案,在以後的測試中,就可以直接使用這個均值來相減,而不需要對測試圖片重新計算。 一、二進位制格式的均值計算

【12】Caffe學習系列訓練和測試自己的圖片

一、準備資料 有條件的同學,可以去imagenet的官網http://www.image-net.org/download-images,下載imagenet圖片來訓練。驗證碼始終出不來需要翻牆(是google網站的驗證碼)。但是我沒有下載,原因是資料太大了。。。 我去網上找了一些其它的圖片