1. 程式人生 > >Caffe傻瓜系列(1) 資料層理解

Caffe傻瓜系列(1) 資料層理解

本系列大部分為轉載,根據自己需求改寫訓練檔案,大體流程相同。

要執行caffe,需要先建立一個模型(model),如比較常用的Lenet,Alex等, 而一個模型由多個屋(layer)構成,每一屋又由許多引數組成。所有的引數都定義在caffe.proto這個檔案中。要熟練使用caffe,最重要的就是學會配置檔案(prototxt)的編寫。

層有很多種型別,比如Data,Convolution,Pooling等,層之間的資料流動是以Blobs的方式進行。

今天我們就先介紹一下資料層.

資料層是每個模型的最底層,是模型的入口,不僅提供資料的輸入,也提供資料從Blobs轉換成別的格式進行儲存輸出。通常資料的預處理(如

減去均值, 放大縮小, 裁剪和映象等),也在這一層設定引數實現。

資料來源可以來自高效的資料庫(如LevelDB和LMDB),也可以直接來自於記憶體。如果不是很注重效率的話,資料也可來自磁碟的hdf5檔案和圖片格式檔案。

所有的資料層的都具有的公用引數:先看示例

  1. layer {
  2. name: “cifar”
  3. type: “Data”
  4. top: “data”
  5. top: “label”
  6. include {
  7. phase: TRAIN
  8. }
  9. transform_param {
  10. mean_file: “examples/cifar10/mean.binaryproto”
  11. }
  12. data_param {
  13. source: “examples/cifar10/cifar10_train_lmdb”
  14. batch_size: 100
  15. backend: LMDB
  16. }
  17. }
name: 表示該層的名稱,可隨意取

type: 層型別,如果是Data,表示資料來源於LevelDB或LMDB。根據資料的來源不同,資料層的型別也不同(後面會詳細闡述)。一般在練習的時候,我們都是採用的LevelDB或LMDB資料,因此層型別設定為Data。

top或bottom: 每一層用bottom來輸入資料,用top來輸出資料。如果只有top沒有bottom,則此層只有輸出,沒有輸入。反之亦然。如果有多個 top或多個bottom,表示有多個blobs資料的輸入和輸出。

data 與 label: 在資料層中,至少有一個命名為data的top。如果有第二個top,一般命名為label。 這種(data,label)配對是分類模型所必需的。

include: 一般訓練的時候和測試的時候,模型的層是不一樣的。該層(layer)是屬於訓練階段的層,還是屬於測試階段的層,需要用include來指定。如果沒有include引數,則表示該層既在訓練模型中,又在測試模型中。

Transformations: 資料的預處理,可以將資料變換到定義的範圍內。如設定scale為0.00390625,實際上就是1/255, 即將輸入資料由0-255歸一化到0-1之間

其它的資料預處理也在這個地方設定:

  1. transform_param {
  2. scale: 0.00390625
  3. mean_file_size: "examples/cifar10/mean.binaryproto"
  4. # 用一個配置檔案來進行均值操作
  5. mirror: 1 # 1表示開啟映象,0表示關閉,也可用ture和false來表示
  6. # 剪裁一個 227*227的圖塊,在訓練階段隨機剪裁,在測試階段從中間裁剪
  7. crop_size: 227
  8. }

後面的data_param部分,就是根據資料的來源不同,來進行不同的設定。

1、資料來自於資料庫(如LevelDB和LMDB)

  層型別(layer type):Data

必須設定的引數:

  source: 包含資料庫的目錄名稱,如examples/mnist/mnist_train_lmdb

  batch_size: 每次處理的資料個數,如64

可選的引數:

  rand_skip: 在開始的時候,路過某個資料的輸入。通常對非同步的SGD很有用。

  backend: 選擇是採用LevelDB還是LMDB, 預設是LevelDB.

示例:

  1. layer {
  2. name: "mnist"
  3. type: "Data"
  4. top: "data"
  5. top: "label"
  6. include {
  7. phase: TRAIN
  8. }
  9. transform_param {
  10. scale: 0.00390625
  11. }
  12. data_param {
  13. source: "examples/mnist/mnist_train_lmdb"
  14. batch_size: 64
  15. backend: LMDB
  16. }
  17. }

2、資料來自於記憶體

層型別:MemoryData

必須設定的引數:

 batch_size:每一次處理的資料個數,比如2

 channels:通道數

  height:高度

   width: 寬度

示例:

  1. layer {
  2. top: "data"
  3. top: "label"
  4. name: "memory_data"
  5. type: "MemoryData"
  6. memory_data_param{
  7. batch_size: 2
  8. height: 100
  9. width: 100
  10. channels: 1
  11. }
  12. transform_param {
  13. scale: 0.0078125
  14. mean_file: "mean.proto"
  15. mirror: false
  16. }
  17. }
3、資料來自於HDF5

層型別:HDF5Data

必須設定的引數:

source: 讀取的檔名稱

batch_size: 每一次處理的資料個數

示例:

  1. layer {
  2. name: "data"
  3. type: "HDF5Data"
  4. top: "data"
  5. top: "label"
  6. hdf5_data_param {
  7. source: "examples/hdf5_classification/data/train.txt"
  8. batch_size: 10
  9. }
  10. }

4、資料來自於圖片

層型別:ImageData

必須設定的引數:

  source: 一個文字檔案的名字,每一行給定一個圖片檔案的名稱和標籤(label)

  batch_size: 每一次處理的資料個數,即圖片數

可選引數:

  rand_skip: 在開始的時候,路過某個資料的輸入。通常對非同步的SGD很有用。

  shuffle: 隨機打亂順序,預設值為false

  new_height,new_width: 如果設定,則將圖片進行resize

 示例:

  1. layer {
  2. name: "data"
  3. type: "ImageData"
  4. top: "data"
  5. top: "label"
  6. transform_param {
  7. mirror: false
  8. crop_size: 227
  9. mean_file: "data/ilsvrc12/imagenet_mean.binaryproto"
  10. }
  11. image_data_param {
  12. source: "examples/_temp/file_list.txt"
  13. batch_size: 50
  14. new_height: 256
  15. new_width: 256
  16. }
  17. }

5、資料來源於Windows

層型別:WindowData

必須設定的引數:

  source: 一個文字檔案的名字

  batch_size: 每一次處理的資料個數,即圖片數

示例:

  1. layer {
  2. name: "data"
  3. type: "WindowData"
  4. top: "data"
  5. top: "label"
  6. include {
  7. phase: TRAIN
  8. }
  9. transform_param {
  10. mirror: true
  11. crop_size: 227
  12. mean_file: "data/ilsvrc12/imagenet_mean.binaryproto"
  13. }
  14. window_data_param {
  15. source: "examples/finetune_pascal_detection/window_file_2007_trainval.txt"
  16. batch_size: 128
  17. fg_threshold: 0.5
  18. bg_threshold: 0.5
  19. fg_fraction: 0.25
  20. context_pad: 16
  21. crop_mode: "warp"
  22. }
  23. }