1. 程式人生 > >Faster-RCNN+ZF用自己的資料集訓練模型(Python版本)

Faster-RCNN+ZF用自己的資料集訓練模型(Python版本)

說明:本博文假設你已經做好了自己的資料集,該資料集格式和VOC2007相同。下面是訓練前的一些修改。

Faster-RCNN原始碼下載地址:

本文用到的是Python版本,在Linux下執行。

準備工作:

1.配置caffe

     這個不多說,網上教程很多。

2.其他的注意事項

下面大概翻譯一下上面網址的內容吧。

(1)安裝cython, python-opencv,easydict

pip install cython
pip install easydict
apt-get install python-opencv

(2)下載py-faster-rcnn

# Make sure to clone with --recursive
git clone --recursive https://github.com/rbgirshick/py-faster-rcnn.git

如圖:


(3)進入py-faster-rcnn/lib

   執行make

如圖:

(4)進入py-faster-rcnn\caffe-fast-rcnn

執行 cp Makefile.config.example Makefile.config

然後,配置Makefile.config檔案,可參考我的配置:Makefile.config檔案

配置好Makefile.config檔案後,執行:

make -j8 && make pycaffe

如圖:


(5)下載VOC2007資料集

解壓,然後,將該資料集放在py-faster-rcnn\data下,用你的資料集替換VOC2007資料集。(替換Annotations,ImageSets和JPEGImages)

(用你的Annotations,ImagesSets和JPEGImages替換py-faster-rcnn\data\VOCdevkit2007\VOC2007中對應資料夾)

(6)下載ImageNet資料集下預訓練得到的模型引數(用來初始化)

解壓,然後將該檔案放在py-faster-rcnn\data下

下面是訓練前的一些修改。

1.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage1_fast_rcnn_train.pt修改

layer {
  name: 'data'
  type: 'Python'
  top: 'data'
  top: 'rois'
  top: 'labels'
  top: 'bbox_targets'
  top: 'bbox_inside_weights'
  top: 'bbox_outside_weights'
  python_param {
    module: 'roi_data_layer.layer'
    layer: 'RoIDataLayer'
    param_str: "'num_classes': 16" #按訓練集類別改,該值為類別數+1
  }
}

layer {
  name: "cls_score"
  type: "InnerProduct"
  bottom: "fc7"
  top: "cls_score"
  param { lr_mult: 1.0 }
  param { lr_mult: 2.0 }
  inner_product_param {
    num_output: 16 #按訓練集類別改,該值為類別數+1
    weight_filler {
      type: "gaussian"
      std: 0.01
    }
    bias_filler {
      type: "constant"
      value: 0
    }
  }
}

layer {
  name: "bbox_pred"
  type: "InnerProduct"
  bottom: "fc7"
  top: "bbox_pred"
  param { lr_mult: 1.0 }
  param { lr_mult: 2.0 }
  inner_product_param {
    num_output: 64 #按訓練集類別改,該值為(類別數+1)*4
    weight_filler {
      type: "gaussian"
      std: 0.001
    }
    bias_filler {
      type: "constant"
      value: 0
    }
  }
}

2.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage1_rpn_train.pt修改

layer {
  name: 'input-data'
  type: 'Python'
  top: 'data'
  top: 'im_info'
  top: 'gt_boxes'
  python_param {
    module: 'roi_data_layer.layer'
    layer: 'RoIDataLayer'
    param_str: "'num_classes': 16" #按訓練集類別改,該值為類別數+1
  }
}

3.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage2_fast_rcnn_train.pt修改

layer {
  name: 'data'
  type: 'Python'
  top: 'data'
  top: 'rois'
  top: 'labels'
  top: 'bbox_targets'
  top: 'bbox_inside_weights'
  top: 'bbox_outside_weights'
  python_param {
    module: 'roi_data_layer.layer'
    layer: 'RoIDataLayer'
    param_str: "'num_classes': 16" #按訓練集類別改,該值為類別數+1
  }
}
layer {
  name: "cls_score"
  type: "InnerProduct"
  bottom: "fc7"
  top: "cls_score"
  param { lr_mult: 1.0 }
  param { lr_mult: 2.0 }
  inner_product_param {
    num_output: 16 #按訓練集類別改,該值為類別數+1
    weight_filler {
      type: "gaussian"
      std: 0.01
    }
    bias_filler {
      type: "constant"
      value: 0
    }
  }
}

layer {
  name: "bbox_pred"
  type: "InnerProduct"
  bottom: "fc7"
  top: "bbox_pred"
  param { lr_mult: 1.0 }
  param { lr_mult: 2.0 }
  inner_product_param {
    num_output: 64 #按訓練集類別改,該值為(類別數+1)*4
    weight_filler {
      type: "gaussian"
      std: 0.001
    }
    bias_filler {
      type: "constant"
      value: 0
    }
  }
}

4.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage2_rpn_train.pt修改

layer {
  name: 'input-data'
  type: 'Python'
  top: 'data'
  top: 'im_info'
  top: 'gt_boxes'
  python_param {
    module: 'roi_data_layer.layer'
    layer: 'RoIDataLayer'
    param_str: "'num_classes': 16" #按訓練集類別改,該值為類別數+1
  }
}

5.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/faster_rcnn_test.pt修改

layer {
  name: "cls_score"
  type: "InnerProduct"
  bottom: "fc7"
  top: "cls_score"
  inner_product_param {
    num_output: 16 #按訓練集類別改,該值為類別數+1
  }
}

layer {
  name: "bbox_pred"
  type: "InnerProduct"
  bottom: "fc7"
  top: "bbox_pred"
  inner_product_param {
    num_output: 64 #按訓練集類別改,該值為(類別數+1)*4
  }
}

6.py-faster-rcnn/lib/datasets/pascal_voc.py修改

(1)
class pascal_voc(imdb):
    def __init__(self, image_set, year, devkit_path=None):
        imdb.__init__(self, 'voc_' + year + '_' + image_set)
        self._year = year
        self._image_set = image_set
        self._devkit_path = self._get_default_path() if devkit_path is None \
                            else devkit_path
        self._data_path = os.path.join(self._devkit_path, 'VOC' + self._year)
        self._classes = ('__background__', # always index 0
                         '你的標籤1','你的標籤2',你的標籤3','你的標籤4'
                      )

上面要改的地方是

修改訓練集資料夾:

self._data_path = os.path.join(self._devkit_path, 'VOC'+self._year)

用你的資料集直接替換原來VOC2007內的Annotations,ImageSets和JPEGImages即可,以免出現各種錯誤。

修改標籤:

self._classes = ('__background__', # always index 0
                         '你的標籤1','你的標籤2','你的標籤3','你的標籤4'
                      )

修改成你的資料集的標籤就行。

(2)

cls = self._class_to_ind[obj.find('name').text.lower().strip()]
這裡把標籤轉成小寫,如果你的標籤含有大寫字母,可能會出現KeyError的錯誤,所以建議標籤用小寫字母。

(去掉lower應該也行)

建議訓練的標籤還是用小寫的字母,如果最終需要用大寫字母或中文顯示標籤,可參考:

7.py-faster-rcnn/lib/datasets/imdb.py修改

該檔案的append_flipped_images(self)函式修改為:
def append_flipped_images(self):
        num_images = self.num_images
        widths = [PIL.Image.open(self.image_path_at(i)).size[0]
                  for i in xrange(num_images)]
        for i in xrange(num_images):
            boxes = self.roidb[i]['boxes'].copy()
            oldx1 = boxes[:, 0].copy()
            oldx2 = boxes[:, 2].copy()
            boxes[:, 0] = widths[i] - oldx2 - 1
            print boxes[:, 0]
            boxes[:, 2] = widths[i] - oldx1 - 1
            print boxes[:, 0]
            assert (boxes[:, 2] >= boxes[:, 0]).all()
            entry = {'boxes' : boxes,
                     'gt_overlaps' : self.roidb[i]['gt_overlaps'],
                     'gt_classes' : self.roidb[i]['gt_classes'],
                     'flipped' : True}
            self.roidb.append(entry)
        self._image_index = self._image_index * 2
這裡assert (boxes[:, 2] >= boxes[:, 0]).all()可能出現AssertionError,具體解決辦法參考:

!!!為防止與之前的模型搞混,訓練前把output資料夾刪除(或改個其他名),還要把py-faster-rcnn/data/cache中的檔案和

py-faster-rcnn/data/VOCdevkit2007/annotations_cache中的檔案刪除(如果有的話)。

至於學習率等之類的設定,可在py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt中的solve檔案設定,迭代次數可在py-faster-rcnn\tools的train_faster_rcnn_alt_opt.py中修改:

max_iters = [80000, 40000, 80000, 40000]
分別為4個階段(rpn第1階段,fast rcnn第1階段,rpn第2階段,fast rcnn第2階段)的迭代次數。可改成你希望的迭代次數。

如果改了這些數值,最好把py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt裡對應的solver檔案(有4個)也修改,stepsize小於上面修改的數值。

8.開始訓練

進入py-faster-rcnn,執行:

./experiments/scripts/faster_rcnn_alt_opt.sh 0 ZF pascal_voc

這樣,就開始訓練了。

9.測試

將訓練得到的py-faster-rcnn\output\faster_rcnn_alt_opt\***_trainval中ZF的caffemodel拷貝至py-faster-rcnn\data\faster_rcnn_models(如果沒有這個資料夾,就新建一個),然後,修改:

py-faster-rcnn\tools\demo.py,主要修改:

CLASSES = ('__background__',
           '你的標籤1', '你的標籤2', '你的標籤3', '你的標籤4')

改成你的資料集標籤;

NETS = {'vgg16': ('VGG16',
                  'VGG16_faster_rcnn_final.caffemodel'),
        'zf': ('ZF',
                  'ZF_faster_rcnn_final.caffemodel')}

上面ZF的caffemodel改成你的caffemodel。

im_names = ['1559.jpg','1564.jpg']

改成你的測試圖片。(測試圖片放在py-faster-rcnn\data\demo中)

10.結果

在py-faster-rcnn下,

執行:

./tools/demo.py --net zf

或者將預設的模型改為zf:

parser.add_argument('--net', dest='demo_net', help='Network to use [vgg16]',
                        choices=NETS.keys(), default='vgg16')
修改:
default='zf'
執行:
./tools/demo.py