Faster-RCNN+ZF用自己的数据集训练模型(Python版本and MATLAB版本)
2016-12-27 20:06
579 查看
说明:本博文假设你已经做好了自己的数据集,该数据集格式和VOC2007相同。下面是训练前的一些修改。
(做数据集的过程可以看http://blog.csdn.net/sinat_30071459/article/details/50723212)
Faster-RCNN源码下载地址:
Matlab版本:https://github.com/ShaoqingRen/faster_rcnn
Python版本:https://github.com/rbgirshick/py-faster-rcnn
本文用到的是Python版本,在Linux下运行。
Matlab版本的训练过程:http://blog.csdn.net/sinat_30071459/article/details/50546891
准备工作:
1.配置caffe
这个不多说,网上教程很多。
2.其他的注意事项
这里说的挺详细了,认真看看吧。地址:https://github.com/rbgirshick/py-faster-rcnn(主要内容如下)
下面大概翻译一下上面网址的内容吧。
(1)安装cython,
[plain] view
plain copy
pip install cython
pip install easydict
apt-get install python-opencv
(2)下载py-faster-rcnn
[plain] view
plain copy
# Make sure to clone with --recursive
git clone --recursive https://github.com/rbgirshick/py-faster-rcnn.git
如图:
(3)进入py-faster-rcnn/lib
执行make
如图:
(4)进入py-faster-rcnn\caffe-fast-rcnn
执行 cp Makefile.config.example Makefile.config
然后,配置Makefile.config文件,可参考我的配置:Makefile.config文件
配置好Makefile.config文件后,执行:
[plain] view
plain copy
make -j8 && make pycaffe
如图:
(5)下载VOC2007数据集
提供一个百度云地址:http://pan.baidu.com/s/1mhMKKw4
解压,然后,将该数据集放在py-faster-rcnn\data下,用你的数据集替换VOC2007数据集。(替换Annotations,ImageSets和JPEGImages)
(用你的Annotations,ImagesSets和JPEGImages替换py-faster-rcnn\data\VOCdevkit2007\VOC2007中对应文件夹)
(6)下载ImageNet数据集下预训练得到的模型参数(用来初始化)
提供一个百度云地址:http://pan.baidu.com/s/1hsxx8OW
解压,然后将该文件放在py-faster-rcnn\data下
下面是训练前的一些修改。
[plain] view
plain copy
layer {
name: 'data'
type: 'Python'
top: 'data'
top: 'rois'
top: 'labels'
top: 'bbox_targets'
top: 'bbox_inside_weights'
top: 'bbox_outside_weights'
python_param {
module: 'roi_data_layer.layer'
layer: 'RoIDataLayer'
param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1
}
}
[plain] view
plain copy
layer {
name: "cls_score"
type: "InnerProduct"
bottom: "fc7"
top: "cls_score"
param { lr_mult: 1.0 }
param { lr_mult: 2.0 }
inner_product_param {
num_output: 16 #按训练集类别改,该值为类别数+1
weight_filler {
type: "gaussian"
std: 0.01
}
bias_filler {
type: "constant"
value: 0
}
}
}
[plain] view
plain copy
layer {
name: "bbox_pred"
type: "InnerProduct"
bottom: "fc7"
top: "bbox_pred"
param { lr_mult: 1.0 }
param { lr_mult: 2.0 }
inner_product_param {
num_output: 64 #按训练集类别改,该值为(类别数+1)*4
weight_filler {
type: "gaussian"
std: 0.001
}
bias_filler {
type: "constant"
value: 0
}
}
}
[plain] view
plain copy
layer {
name: 'input-data'
type: 'Python'
top: 'data'
top: 'im_info'
top: 'gt_boxes'
python_param {
module: 'roi_data_layer.layer'
layer: 'RoIDataLayer'
param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1
}
}
[plain] view
plain copy
layer {
name: 'data'
type: 'Python'
top: 'data'
top: 'rois'
top: 'labels'
top: 'bbox_targets'
top: 'bbox_inside_weights'
top: 'bbox_outside_weights'
python_param {
module: 'roi_data_layer.layer'
layer: 'RoIDataLayer'
param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1
}
}
[plain] view
plain copy
layer {
name: "cls_score"
type: "InnerProduct"
bottom: "fc7"
top: "cls_score"
param { lr_mult: 1.0 }
param { lr_mult: 2.0 }
inner_product_param {
num_output: 16 #按训练集类别改,该值为类别数+1
weight_filler {
type: "gaussian"
std: 0.01
}
bias_filler {
type: "constant"
value: 0
}
}
}
[plain] view
plain copy
layer {
name: "bbox_pred"
type: "InnerProduct"
bottom: "fc7"
top: "bbox_pred"
param { lr_mult: 1.0 }
param { lr_mult: 2.0 }
inner_product_param {
num_output: 64 #按训练集类别改,该值为(类别数+1)*4
weight_filler {
type: "gaussian"
std: 0.001
}
bias_filler {
type: "constant"
value: 0
}
}
}
[plain] view
plain copy
layer {
name: 'input-data'
type: 'Python'
top: 'data'
top: 'im_info'
top: 'gt_boxes'
python_param {
module: 'roi_data_layer.layer'
layer: 'RoIDataLayer'
param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1
}
}
[plain] view
plain copy
layer {
name: "cls_score"
type: "InnerProduct"
bottom: "fc7"
top: "cls_score"
inner_product_param {
num_output: 16 #按训练集类别改,该值为类别数+1
}
}
[plain] view
plain copy
layer {
name: "bbox_pred"
type: "InnerProduct"
bottom: "fc7"
top: "bbox_pred"
inner_product_param {
num_output: 64 #按训练集类别改,该值为(类别数+1)*4
}
}
(1)
[plain] view
plain copy
class pascal_voc(imdb):
def __init__(self, image_set, year, devkit_path=None):
imdb.__init__(self, 'voc_' + year + '_' + image_set)
self._year = year
self._image_set = image_set
self._devkit_path = self._get_default_path() if devkit_path is None \
else devkit_path
self._data_path = os.path.join(self._devkit_path, 'VOC' + self._year)
self._classes = ('__background__', # always index 0
'你的标签1','你的标签2',你的标签3','你的标签4'
)
上面要改的地方是
修改训练集文件夹:
[plain] view
plain copy
self._data_path = os.path.join(self._devkit_path, 'VOC'+self._year)
用你的数据集直接替换原来VOC2007内的Annotations,ImageSets和JPEGImages即可,以免出现各种错误。
修改标签:
[plain] view
plain copy
self._classes = ('__background__', # always index 0
'你的标签1','你的标签2','你的标签3','你的标签4'
)
修改成你的数据集的标签就行。
(2)
[html] view
plain copy
cls = self._class_to_ind[obj.find('name').text.lower().strip()]
这里把标签转成小写,如果你的标签含有大写字母,可能会出现KeyError的错误,所以建议标签用小写字母。
(去掉lower应该也行)
建议训练的标签还是用小写的字母,如果最终需要用大写字母或中文显示标签,可参考:
http://blog.csdn.net/sinat_30071459/article/details/51694037
该文件的append_flipped_images(self)函数修改为:
[plain] view
plain copy
def append_flipped_images(self):
num_images = self.num_images
widths = [PIL.Image.open(self.image_path_at(i)).size[0]
for i in xrange(num_images)]
for i in xrange(num_images):
boxes = self.roidb[i]['boxes'].copy()
oldx1 = boxes[:, 0].copy()
oldx2 = boxes[:, 2].copy()
boxes[:, 0] = widths[i] - oldx2 - 1
print boxes[:, 0]
boxes[:, 2] = widths[i] - oldx1 - 1
print boxes[:, 0]
assert (boxes[:, 2] >= boxes[:, 0]).all()
entry = {'boxes' : boxes,
'gt_overlaps' : self.roidb[i]['gt_overlaps'],
'gt_classes' : self.roidb[i]['gt_classes'],
'flipped' : True}
self.roidb.append(entry)
self._image_index = self._image_index * 2
这里assert (boxes[:, 2] >= boxes[:, 0]).all()可能出现AssertionError,具体解决办法参考:
http://blog.csdn.net/xzzppp/article/details/52036794
!!!为防止与之前的模型搞混,训练前把output文件夹删除(或改个其他名),还要把py-faster-rcnn/data/cache中的文件和
py-faster-rcnn/data/VOCdevkit2007/annotations_cache中的文件删除(如果有的话)。
至于学习率等之类的设置,可在py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt中的solve文件设置,迭代次数可在py-faster-rcnn\tools的train_faster_rcnn_alt_opt.py中修改:
[plain] view
plain copy
max_iters = [80000, 40000, 80000, 40000]
分别为4个阶段(rpn第1阶段,fast rcnn第1阶段,rpn第2阶段,fast rcnn第2阶段)的迭代次数。可改成你希望的迭代次数。
如果改了这些数值,最好把py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt里对应的solver文件(有4个)也修改,stepsize小于上面修改的数值。
进入py-faster-rcnn,执行:
[plain] view
plain copy
./experiments/scripts/faster_rcnn_alt_opt.sh 0 ZF pascal_voc
这样,就开始训练了。
将训练得到的py-faster-rcnn\output\faster_rcnn_alt_opt\***_trainval中ZF的caffemodel拷贝至py-faster-rcnn\data\faster_rcnn_models(如果没有这个文件夹,就新建一个),然后,修改:
py-faster-rcnn\tools\demo.py,主要修改:
[plain] view
plain copy
CLASSES = ('__background__',
'你的标签1', '你的标签2', '你的标签3', '你的标签4')
改成你的数据集标签;
[plain] view
plain copy
NETS = {'vgg16': ('VGG16',
'VGG16_faster_rcnn_final.caffemodel'),
'zf': ('ZF',
'ZF_faster_rcnn_final.caffemodel')}
上面ZF的caffemodel改成你的caffemodel。
[plain] view
plain copy
im_names = ['1559.jpg','1564.jpg']
改成你的测试图片。(测试图片放在py-faster-rcnn\data\demo中)
在py-faster-rcnn下,
执行:
[plain] view
plain copy
./tools/demo.py --net zf
或者将默认的模型改为zf:
[html] view
plain copy
parser.add_argument('--net', dest='demo_net', help='Network to use [vgg16]',
choices=NETS.keys(), default='vgg16')
修改:
[html] view
plain copy
default='zf'
执行:
[plain] view
plain copy
./tools/demo.py
Faster-RCNN+ZF用自己的数据集训练模型(MATLAB版本)
说明:本博文假设你已经做好了自己的数据集,该数据集格式和VOC2007相同。下面是训练前的一些修改。
(做数据集的过程可以看http://blog.csdn.net/sinat_30071459/article/details/50723212)
Faster-RCNN源码下载地址:
Matlab版本:https://github.com/ShaoqingRen/faster_rcnn
Python版本:https://github.com/rbgirshick/py-faster-rcnn
本文用到的是Matlab版本,在Windows下运行。
python版本的训练过程:http://blog.csdn.net/sinat_30071459/article/details/51332084
资源下载:https://github.com/ShaoqingRen/faster_rcnn,网页最后有所有的资源。
准备工作:
(1)
安装vs2013;
安装Matlab;
安装CUDA;
上面的安装顺序最好不要乱,否则可能出现Matlab找不到vs的情况,在Matlab命令行窗口输入:mbuild -setup,如果出现:
说明Matlab可以找到vs2013。CUDA应在安装vs2013后再安装。
(2)
如果你的cuda是6.5,那么,运行一下:
[plain] view
plain copy
fetch_data/fetch_caffe_mex_windows_vs2013_cuda65.m
(运行代码下载失败的话,用百度云下载:https://pan.baidu.com/s/1i3m0i0H ,解压到faster_rcnn-master下)
得到mex文件。如果不是cuda6.5(如我的是cuda7.5),则需要自己编译mex文件,编译过程参考这里:Caffe
for Faster R-CNN,按步骤做就行了。
也可以下载我编译得到的文件(注意cuda版本)。
下载地址:Faster-RCNN(Matlab) external文件夹
建议还是自己编译,因为版本问题可能会出错。在训练前,可以先下载作者训练好的模型,测试一下,如果可以的话,就不用自己编译了。
测试过程:
(1)运行faster_rcnn-master\faster_rcnn_build.m
(2)运行faster_rcnn-master\startup.m
(3)运行faster_rcnn-master\fetch_data\fetch_faster_rcnn_final_model.m 下载训练好的模型
(下载失败的话,可以用百度云下载:https://pan.baidu.com/s/1hsFKmeK ,解压到faster_rcnn-master下)
(4)修改faster_rcnn-master\experiments\script_faster_rcnn_demo.m的model_dir为你下载的模型,然后运行。
最终得到:
(我的OpenCV版本是2.4.9,cuda版本是7.5,因版本不同上述文件和你的编译结果可能会有差异。+caffe文件夹是从caffe-master或caffe-faster-R-CNN里拷贝过来的。)
如果你没有按上面说的测试过,请先运行:
(1)faster_rcnn-master\faster_rcnn_build.m
(2)faster_rcnn-master\startup.m
然后再进行下面的修改。
plain copy
VOCopts.annopath=[VOCopts.datadir VOCopts.dataset '/Annotations/%s.xml'];
VOCopts.imgpath=[VOCopts.datadir VOCopts.dataset '/JPEGImages/%s.jpg'];
VOCopts.imgsetpath=[VOCopts.datadir VOCopts.dataset '/ImageSets/Main/%s.txt'];
VOCopts.clsimgsetpath=[VOCopts.datadir VOCopts.dataset '/ImageSets/Main/%s_%s.txt'];
VOCopts.clsrespath=[VOCopts.resdir 'Main/%s_cls_' VOCopts.testset '_%s.txt'];
VOCopts.detrespath=[VOCopts.resdir 'Main/%s_det_' VOCopts.testset '_%s.txt'];
上面这些路径要正确,第一个是xml标签路径;第二个是图片的路径;第三个是放train.txt、val.txt、test.txt和trainval.txt的路径;第四、五、六个不需要;一般来说这些路径不用修改,你做的数据集格式和VOC2007相同就行。(图片格式默认是jpg,如果是png,修改上面第二行的代码即可。)
[plain] view
plain copy
VOCopts.dataset = '你的文件夹名';
然后将VOC2007路径注释掉,上面“你的文件夹名”是你放Annotations、ImageSets、JPEGImages文件夹的文件夹名。
[plain] view
plain copy
VOCopts.classes={...
'你的标签1'
'你的标签2'
'你的标签3'
'你的标签4'};
将其改为你的标签。
results下需要新建一个文件夹,名字是1. (2)中“你的文件夹名”。“你的文件夹名”下新建一个Main文件夹。(因为可能会出现找不到文件夹的错误)
local下需要新建一个文件夹,名字是1. (2)中“你的文件夹名”。(同上)
[plain] view
plain copy
ip.addParamValue('val_iters', 500, @isscalar);
ip.addParamValue('val_interval', 2000, @isscalar);
可能在randperm(N,k)出现错误,根据数据集修改。(VOC2007中val有2510张图像,train有2501张,作者将val_iters设为500,val_interval设为2000,可以参考作者的设置修改,建议和作者一样val_iters约为val的1/5,val_interval不用修改)
这里的问题和fast_rcnn_train.m一样。
[plain] view
plain copy
%do_eval = (str2num(year) <= 2007) | ~strcmp(test_set,'test');
do_eval = 1;
注释掉
[plain] view
plain copy
do_eval = (str2num(year) <= 2007) | ~strcmp(test_set,'test');
并令其为1,否则测试会出现精度全为0的情况
[plain] view
plain copy
ip.addParamValue('exclude_difficult_samples', true, @islogical);
不包括难识别的样本,所以设置为true。(如果有就设置为false)
plain copy
input: "bbox_targets"
input_dim: 1 # to be changed on-the-fly to match num ROIs
input_dim: 84 # 根据类别数改,该值为(类别数+1)*4 #################
input_dim: 1
input_dim: 1
[plain] view
plain copy
input: "bbox_loss_weights"
input_dim: 1 # to be changed on-the-fly to match num ROIs
input_dim: 84 # 根据类别数改,该值为(类别数+1)*4 ############
input_dim: 1
input_dim: 1
[plain] view
plain copy
layer {
bottom: "fc7"
top: "cls_score"
name: "cls_score"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
type: "InnerProduct"
inner_product_param {
num_output: 21 #根据类别数改该值为类别数+1 #########
[plain] view
plain copy
layer {
bottom: "fc7"
top: "bbox_pred"
name: "bbox_pred"
type: "InnerProduct"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
inner_product_param {
num_output: 84 #根据类别数改,该值为(类别数+1)*4 ##########
plain copy
layer {
bottom: "fc7"
top: "cls_score"
name: "cls_score"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
type: "InnerProduct"
inner_product_param {
num_output: 21 #类别数+1 ##########
[plain] view
plain copy
layer {
bottom: "fc7"
top: "bbox_pred"
name: "bbox_pred"
type: "InnerProduct"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
inner_product_param {
num_output: 84 #4*(类别数+1) ##########
plain copy
input: "bbox_targets"
input_dim: 1 # to be changed on-the-fly to match num ROIs
input_dim: 84 # 4*(类别数+1) ###########
input_dim: 1
input_dim: 1
[plain] view
plain copy
input: "bbox_loss_weights"
input_dim: 1 # to be changed on-the-fly to match num ROIs
input_dim: 84 # 4*(类别数+1) ###########
input_dim: 1
input_dim: 1
[plain] view
plain copy
layer {
bottom: "fc7"
top: "cls_score"
name: "cls_score"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
type: "InnerProduct"
inner_product_param {
num_output: 21 #类别数+1 ############
[plain] view
plain copy
layer {
bottom: "fc7"
top:"bbox_pred"
name:"bbox_pred"
type:"InnerProduct"
param {
lr_mult:1.0
}
param {
lr_mult:2.0
}
inner_product_param{
num_output: 84 #4*(类别数+1) ###########
plain copy
layer {
bottom: "fc7"
top: "cls_score"
name: "cls_score"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
type: "InnerProduct"
inner_product_param {
num_output: 21 类别数+1 #######
[plain] view
plain copy
layer {
bottom: "fc7"
top: "bbox_pred"
name: "bbox_pred"
type: "InnerProduct"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
inner_product_param {
num_output: 84 #4*(类别数+1) ##########
[plain] view
plain copy
model.stage1_rpn.solver_def_file = fullfile(pwd, 'models', 'rpn_prototxts', 'ZF', 'solver_30k40k.prototxt');%solver_60k80k.prototxt
model.stage1_rpn.test_net_def_file = fullfile(pwd, 'models', 'rpn_prototxts', 'ZF', 'test.prototxt');
model.stage1_rpn.init_net_file = model.pre_trained_net_file;
!!!为防止与之前的模型搞混,训练前把output文件夹删除(或改个其他名),还要把imdb\cache中的文件删除(如果有的话)
更为简便的方法是直接用你的数据集的Annotations、ImageSets、JPEGImages文件夹替换VOC2007对应文件夹,那么上面只需进行1.(3)、4、5、7、8的修改。
(1).下载预训练的ZF模型:fetch_data/fetch_model_ZF.m
(下载失败的话用百度云下载:https://pan.baidu.com/s/1o6zipPS ,解压到faster_rcnn-master下,预训练模型参数用于初始化)
(2).运行:
[plain] view
plain copy
experiments/script_faster_rcnn_VOC2007_ZF.m
经过一会的准备工作,就进入迭代了:
将relu5(包括relu5)前的层删除,并将roi_pool5的bottom改为data和rois。并且前面input: "data"下的input_dim:分别改为1,256,50,50(如果是VGG就是1,512,50,50,其他修改基本一样),具体如下
[plain] view
plain copy
input: "data"
input_dim: 1
input_dim: 256
input_dim: 50
input_dim: 50
[plain] view
plain copy
# ------------------------ layer 1 -----------------------------
layer {
bottom: "data"
bottom: "rois"
top: "pool5"
name: "roi_pool5"
type: "ROIPooling"
roi_pooling_param {
pooled_w: 6
pooled_h: 6
spatial_scale: 0.0625 # (1/16)
}
}
[plain] view
plain copy
model_dir = fullfile(pwd, 'output', 'faster_rcnn_final', 'faster_rcnn_VOC2007_ZF')
将测试图片改成你的图片:
[plain] view
plain copy
im_names = {'001.jpg', '002.jpg', '003.jpg'};
注意:
如果你的数据集类别比voc2007数据集多,把script_faster_rcnn_demo.m中的showboxes(im, boxes_cell, classes, 'voc')作如下修改:
改为:
[plain] view
plain copy
showboxes(im, boxes_cell, classes);
或者:
[plain] view
plain copy
showboxes(im, boxes_cell, classes, 'default');
即去掉‘voc’或将其改为‘default’。
如果测试发现出现的框很多,且这些框没有目标,可以将阈值设高一些(默认是0.6):
[html] view
plain copy
thres = 0.9;
结果如下:
(做数据集的过程可以看http://blog.csdn.net/sinat_30071459/article/details/50723212)
Faster-RCNN源码下载地址:
Matlab版本:https://github.com/ShaoqingRen/faster_rcnn
Python版本:https://github.com/rbgirshick/py-faster-rcnn
本文用到的是Python版本,在Linux下运行。
Matlab版本的训练过程:http://blog.csdn.net/sinat_30071459/article/details/50546891
准备工作:
1.配置caffe
这个不多说,网上教程很多。
2.其他的注意事项
这里说的挺详细了,认真看看吧。地址:https://github.com/rbgirshick/py-faster-rcnn(主要内容如下)
下面大概翻译一下上面网址的内容吧。
(1)安装cython,
python-OpenCV,
easydict
[plain] view
plain copy
pip install cython
pip install easydict
apt-get install python-opencv
(2)下载py-faster-rcnn
[plain] view
plain copy
# Make sure to clone with --recursive
git clone --recursive https://github.com/rbgirshick/py-faster-rcnn.git
如图:
(3)进入py-faster-rcnn/lib
执行make
如图:
(4)进入py-faster-rcnn\caffe-fast-rcnn
执行 cp Makefile.config.example Makefile.config
然后,配置Makefile.config文件,可参考我的配置:Makefile.config文件
配置好Makefile.config文件后,执行:
[plain] view
plain copy
make -j8 && make pycaffe
如图:
(5)下载VOC2007数据集
提供一个百度云地址:http://pan.baidu.com/s/1mhMKKw4
解压,然后,将该数据集放在py-faster-rcnn\data下,用你的数据集替换VOC2007数据集。(替换Annotations,ImageSets和JPEGImages)
(用你的Annotations,ImagesSets和JPEGImages替换py-faster-rcnn\data\VOCdevkit2007\VOC2007中对应文件夹)
(6)下载ImageNet数据集下预训练得到的模型参数(用来初始化)
提供一个百度云地址:http://pan.baidu.com/s/1hsxx8OW
解压,然后将该文件放在py-faster-rcnn\data下
下面是训练前的一些修改。
1.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage1_fast_rcnn_train.pt修改
[plain] viewplain copy
layer {
name: 'data'
type: 'Python'
top: 'data'
top: 'rois'
top: 'labels'
top: 'bbox_targets'
top: 'bbox_inside_weights'
top: 'bbox_outside_weights'
python_param {
module: 'roi_data_layer.layer'
layer: 'RoIDataLayer'
param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1
}
}
[plain] view
plain copy
layer {
name: "cls_score"
type: "InnerProduct"
bottom: "fc7"
top: "cls_score"
param { lr_mult: 1.0 }
param { lr_mult: 2.0 }
inner_product_param {
num_output: 16 #按训练集类别改,该值为类别数+1
weight_filler {
type: "gaussian"
std: 0.01
}
bias_filler {
type: "constant"
value: 0
}
}
}
[plain] view
plain copy
layer {
name: "bbox_pred"
type: "InnerProduct"
bottom: "fc7"
top: "bbox_pred"
param { lr_mult: 1.0 }
param { lr_mult: 2.0 }
inner_product_param {
num_output: 64 #按训练集类别改,该值为(类别数+1)*4
weight_filler {
type: "gaussian"
std: 0.001
}
bias_filler {
type: "constant"
value: 0
}
}
}
2.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage1_rpn_train.pt修改
[plain] viewplain copy
layer {
name: 'input-data'
type: 'Python'
top: 'data'
top: 'im_info'
top: 'gt_boxes'
python_param {
module: 'roi_data_layer.layer'
layer: 'RoIDataLayer'
param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1
}
}
3.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage2_fast_rcnn_train.pt修改
[plain] viewplain copy
layer {
name: 'data'
type: 'Python'
top: 'data'
top: 'rois'
top: 'labels'
top: 'bbox_targets'
top: 'bbox_inside_weights'
top: 'bbox_outside_weights'
python_param {
module: 'roi_data_layer.layer'
layer: 'RoIDataLayer'
param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1
}
}
[plain] view
plain copy
layer {
name: "cls_score"
type: "InnerProduct"
bottom: "fc7"
top: "cls_score"
param { lr_mult: 1.0 }
param { lr_mult: 2.0 }
inner_product_param {
num_output: 16 #按训练集类别改,该值为类别数+1
weight_filler {
type: "gaussian"
std: 0.01
}
bias_filler {
type: "constant"
value: 0
}
}
}
[plain] view
plain copy
layer {
name: "bbox_pred"
type: "InnerProduct"
bottom: "fc7"
top: "bbox_pred"
param { lr_mult: 1.0 }
param { lr_mult: 2.0 }
inner_product_param {
num_output: 64 #按训练集类别改,该值为(类别数+1)*4
weight_filler {
type: "gaussian"
std: 0.001
}
bias_filler {
type: "constant"
value: 0
}
}
}
4.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage2_rpn_train.pt修改
[plain] viewplain copy
layer {
name: 'input-data'
type: 'Python'
top: 'data'
top: 'im_info'
top: 'gt_boxes'
python_param {
module: 'roi_data_layer.layer'
layer: 'RoIDataLayer'
param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1
}
}
5.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/faster_rcnn_test.pt修改
[plain] viewplain copy
layer {
name: "cls_score"
type: "InnerProduct"
bottom: "fc7"
top: "cls_score"
inner_product_param {
num_output: 16 #按训练集类别改,该值为类别数+1
}
}
[plain] view
plain copy
layer {
name: "bbox_pred"
type: "InnerProduct"
bottom: "fc7"
top: "bbox_pred"
inner_product_param {
num_output: 64 #按训练集类别改,该值为(类别数+1)*4
}
}
6.py-faster-rcnn/lib/datasets/pascal_voc.py修改
(1)[plain] view
plain copy
class pascal_voc(imdb):
def __init__(self, image_set, year, devkit_path=None):
imdb.__init__(self, 'voc_' + year + '_' + image_set)
self._year = year
self._image_set = image_set
self._devkit_path = self._get_default_path() if devkit_path is None \
else devkit_path
self._data_path = os.path.join(self._devkit_path, 'VOC' + self._year)
self._classes = ('__background__', # always index 0
'你的标签1','你的标签2',你的标签3','你的标签4'
)
上面要改的地方是
修改训练集文件夹:
[plain] view
plain copy
self._data_path = os.path.join(self._devkit_path, 'VOC'+self._year)
用你的数据集直接替换原来VOC2007内的Annotations,ImageSets和JPEGImages即可,以免出现各种错误。
修改标签:
[plain] view
plain copy
self._classes = ('__background__', # always index 0
'你的标签1','你的标签2','你的标签3','你的标签4'
)
修改成你的数据集的标签就行。
(2)
[html] view
plain copy
cls = self._class_to_ind[obj.find('name').text.lower().strip()]
这里把标签转成小写,如果你的标签含有大写字母,可能会出现KeyError的错误,所以建议标签用小写字母。
(去掉lower应该也行)
建议训练的标签还是用小写的字母,如果最终需要用大写字母或中文显示标签,可参考:
http://blog.csdn.net/sinat_30071459/article/details/51694037
7.py-faster-rcnn/lib/datasets/imdb.py修改
该文件的append_flipped_images(self)函数修改为:[plain] view
plain copy
def append_flipped_images(self):
num_images = self.num_images
widths = [PIL.Image.open(self.image_path_at(i)).size[0]
for i in xrange(num_images)]
for i in xrange(num_images):
boxes = self.roidb[i]['boxes'].copy()
oldx1 = boxes[:, 0].copy()
oldx2 = boxes[:, 2].copy()
boxes[:, 0] = widths[i] - oldx2 - 1
print boxes[:, 0]
boxes[:, 2] = widths[i] - oldx1 - 1
print boxes[:, 0]
assert (boxes[:, 2] >= boxes[:, 0]).all()
entry = {'boxes' : boxes,
'gt_overlaps' : self.roidb[i]['gt_overlaps'],
'gt_classes' : self.roidb[i]['gt_classes'],
'flipped' : True}
self.roidb.append(entry)
self._image_index = self._image_index * 2
这里assert (boxes[:, 2] >= boxes[:, 0]).all()可能出现AssertionError,具体解决办法参考:
http://blog.csdn.net/xzzppp/article/details/52036794
!!!为防止与之前的模型搞混,训练前把output文件夹删除(或改个其他名),还要把py-faster-rcnn/data/cache中的文件和
py-faster-rcnn/data/VOCdevkit2007/annotations_cache中的文件删除(如果有的话)。
至于学习率等之类的设置,可在py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt中的solve文件设置,迭代次数可在py-faster-rcnn\tools的train_faster_rcnn_alt_opt.py中修改:
[plain] view
plain copy
max_iters = [80000, 40000, 80000, 40000]
分别为4个阶段(rpn第1阶段,fast rcnn第1阶段,rpn第2阶段,fast rcnn第2阶段)的迭代次数。可改成你希望的迭代次数。
如果改了这些数值,最好把py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt里对应的solver文件(有4个)也修改,stepsize小于上面修改的数值。
8.开始训练
进入py-faster-rcnn,执行:[plain] view
plain copy
./experiments/scripts/faster_rcnn_alt_opt.sh 0 ZF pascal_voc
这样,就开始训练了。
9.测试
将训练得到的py-faster-rcnn\output\faster_rcnn_alt_opt\***_trainval中ZF的caffemodel拷贝至py-faster-rcnn\data\faster_rcnn_models(如果没有这个文件夹,就新建一个),然后,修改:py-faster-rcnn\tools\demo.py,主要修改:
[plain] view
plain copy
CLASSES = ('__background__',
'你的标签1', '你的标签2', '你的标签3', '你的标签4')
改成你的数据集标签;
[plain] view
plain copy
NETS = {'vgg16': ('VGG16',
'VGG16_faster_rcnn_final.caffemodel'),
'zf': ('ZF',
'ZF_faster_rcnn_final.caffemodel')}
上面ZF的caffemodel改成你的caffemodel。
[plain] view
plain copy
im_names = ['1559.jpg','1564.jpg']
改成你的测试图片。(测试图片放在py-faster-rcnn\data\demo中)
10.结果
在py-faster-rcnn下,执行:
[plain] view
plain copy
./tools/demo.py --net zf
或者将默认的模型改为zf:
[html] view
plain copy
parser.add_argument('--net', dest='demo_net', help='Network to use [vgg16]',
choices=NETS.keys(), default='vgg16')
修改:
[html] view
plain copy
default='zf'
执行:
[plain] view
plain copy
./tools/demo.py
Faster-RCNN+ZF用自己的数据集训练模型(MATLAB版本)
说明:本博文假设你已经做好了自己的数据集,该数据集格式和VOC2007相同。下面是训练前的一些修改。
(做数据集的过程可以看http://blog.csdn.net/sinat_30071459/article/details/50723212)
Faster-RCNN源码下载地址:
Matlab版本:https://github.com/ShaoqingRen/faster_rcnn
Python版本:https://github.com/rbgirshick/py-faster-rcnn
本文用到的是Matlab版本,在Windows下运行。
python版本的训练过程:http://blog.csdn.net/sinat_30071459/article/details/51332084
资源下载:https://github.com/ShaoqingRen/faster_rcnn,网页最后有所有的资源。
准备工作:
(1)
安装vs2013;
安装Matlab;
安装CUDA;
上面的安装顺序最好不要乱,否则可能出现Matlab找不到vs的情况,在Matlab命令行窗口输入:mbuild -setup,如果出现:
说明Matlab可以找到vs2013。CUDA应在安装vs2013后再安装。
(2)
如果你的cuda是6.5,那么,运行一下:
[plain] view
plain copy
fetch_data/fetch_caffe_mex_windows_vs2013_cuda65.m
(运行代码下载失败的话,用百度云下载:https://pan.baidu.com/s/1i3m0i0H ,解压到faster_rcnn-master下)
得到mex文件。如果不是cuda6.5(如我的是cuda7.5),则需要自己编译mex文件,编译过程参考这里:Caffe
for Faster R-CNN,按步骤做就行了。
也可以下载我编译得到的文件(注意cuda版本)。
下载地址:Faster-RCNN(Matlab) external文件夹
建议还是自己编译,因为版本问题可能会出错。在训练前,可以先下载作者训练好的模型,测试一下,如果可以的话,就不用自己编译了。
测试过程:
(1)运行faster_rcnn-master\faster_rcnn_build.m
(2)运行faster_rcnn-master\startup.m
(3)运行faster_rcnn-master\fetch_data\fetch_faster_rcnn_final_model.m 下载训练好的模型
(下载失败的话,可以用百度云下载:https://pan.baidu.com/s/1hsFKmeK ,解压到faster_rcnn-master下)
(4)修改faster_rcnn-master\experiments\script_faster_rcnn_demo.m的model_dir为你下载的模型,然后运行。
最终得到:
在训练前请确保你的路径faster_rcnn-master\external\caffe\matlab\caffe_faster_rcnn下有以下文件:
(我的OpenCV版本是2.4.9,cuda版本是7.5,因版本不同上述文件和你的编译结果可能会有差异。+caffe文件夹是从caffe-master或caffe-faster-R-CNN里拷贝过来的。)
如果你没有按上面说的测试过,请先运行:
(1)faster_rcnn-master\faster_rcnn_build.m
(2)faster_rcnn-master\startup.m
然后再进行下面的修改。
1 、VOCdevkit2007\VOCcode\VOCinit.m的修改
(1)路径的修改
[plain] viewplain copy
VOCopts.annopath=[VOCopts.datadir VOCopts.dataset '/Annotations/%s.xml'];
VOCopts.imgpath=[VOCopts.datadir VOCopts.dataset '/JPEGImages/%s.jpg'];
VOCopts.imgsetpath=[VOCopts.datadir VOCopts.dataset '/ImageSets/Main/%s.txt'];
VOCopts.clsimgsetpath=[VOCopts.datadir VOCopts.dataset '/ImageSets/Main/%s_%s.txt'];
VOCopts.clsrespath=[VOCopts.resdir 'Main/%s_cls_' VOCopts.testset '_%s.txt'];
VOCopts.detrespath=[VOCopts.resdir 'Main/%s_det_' VOCopts.testset '_%s.txt'];
上面这些路径要正确,第一个是xml标签路径;第二个是图片的路径;第三个是放train.txt、val.txt、test.txt和trainval.txt的路径;第四、五、六个不需要;一般来说这些路径不用修改,你做的数据集格式和VOC2007相同就行。(图片格式默认是jpg,如果是png,修改上面第二行的代码即可。)
(2)训练集文件夹修改
[plain] viewplain copy
VOCopts.dataset = '你的文件夹名';
然后将VOC2007路径注释掉,上面“你的文件夹名”是你放Annotations、ImageSets、JPEGImages文件夹的文件夹名。
(3)标签的修改
[plain] viewplain copy
VOCopts.classes={...
'你的标签1'
'你的标签2'
'你的标签3'
'你的标签4'};
将其改为你的标签。
2 、VOCdevkit2007\results
results下需要新建一个文件夹,名字是1. (2)中“你的文件夹名”。“你的文件夹名”下新建一个Main文件夹。(因为可能会出现找不到文件夹的错误)
3 、VOCdevkit2007\local
local下需要新建一个文件夹,名字是1. (2)中“你的文件夹名”。(同上)
4 、function\fast_rcnn\fast_rcnn_train.m
[plain] viewplain copy
ip.addParamValue('val_iters', 500, @isscalar);
ip.addParamValue('val_interval', 2000, @isscalar);
可能在randperm(N,k)出现错误,根据数据集修改。(VOC2007中val有2510张图像,train有2501张,作者将val_iters设为500,val_interval设为2000,可以参考作者的设置修改,建议和作者一样val_iters约为val的1/5,val_interval不用修改)
5、function\rpn\proposal_train.m
这里的问题和fast_rcnn_train.m一样。
6.imdb\imdb_eval_voc.m
[plain] viewplain copy
%do_eval = (str2num(year) <= 2007) | ~strcmp(test_set,'test');
do_eval = 1;
注释掉
[plain] view
plain copy
do_eval = (str2num(year) <= 2007) | ~strcmp(test_set,'test');
并令其为1,否则测试会出现精度全为0的情况
7. imdb\roidb_from_voc.m
[plain] viewplain copy
ip.addParamValue('exclude_difficult_samples', true, @islogical);
不包括难识别的样本,所以设置为true。(如果有就设置为false)
8.网络模型的修改
(1) models\ fast_rcnn_prototxts\ZF\ train_val.prototxt
[plain] viewplain copy
input: "bbox_targets"
input_dim: 1 # to be changed on-the-fly to match num ROIs
input_dim: 84 # 根据类别数改,该值为(类别数+1)*4 #################
input_dim: 1
input_dim: 1
[plain] view
plain copy
input: "bbox_loss_weights"
input_dim: 1 # to be changed on-the-fly to match num ROIs
input_dim: 84 # 根据类别数改,该值为(类别数+1)*4 ############
input_dim: 1
input_dim: 1
[plain] view
plain copy
layer {
bottom: "fc7"
top: "cls_score"
name: "cls_score"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
type: "InnerProduct"
inner_product_param {
num_output: 21 #根据类别数改该值为类别数+1 #########
[plain] view
plain copy
layer {
bottom: "fc7"
top: "bbox_pred"
name: "bbox_pred"
type: "InnerProduct"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
inner_product_param {
num_output: 84 #根据类别数改,该值为(类别数+1)*4 ##########
(2) models\ fast_rcnn_prototxts\ZF\ test.prototxt
[plain] viewplain copy
layer {
bottom: "fc7"
top: "cls_score"
name: "cls_score"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
type: "InnerProduct"
inner_product_param {
num_output: 21 #类别数+1 ##########
[plain] view
plain copy
layer {
bottom: "fc7"
top: "bbox_pred"
name: "bbox_pred"
type: "InnerProduct"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
inner_product_param {
num_output: 84 #4*(类别数+1) ##########
(3) models\ fast_rcnn_prototxts\ZF_fc6\ train_val.prototxt
[plain] viewplain copy
input: "bbox_targets"
input_dim: 1 # to be changed on-the-fly to match num ROIs
input_dim: 84 # 4*(类别数+1) ###########
input_dim: 1
input_dim: 1
[plain] view
plain copy
input: "bbox_loss_weights"
input_dim: 1 # to be changed on-the-fly to match num ROIs
input_dim: 84 # 4*(类别数+1) ###########
input_dim: 1
input_dim: 1
[plain] view
plain copy
layer {
bottom: "fc7"
top: "cls_score"
name: "cls_score"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
type: "InnerProduct"
inner_product_param {
num_output: 21 #类别数+1 ############
[plain] view
plain copy
layer {
bottom: "fc7"
top:"bbox_pred"
name:"bbox_pred"
type:"InnerProduct"
param {
lr_mult:1.0
}
param {
lr_mult:2.0
}
inner_product_param{
num_output: 84 #4*(类别数+1) ###########
(4) models\ fast_rcnn_prototxts\ZF_fc6\ test.prototxt
[plain] viewplain copy
layer {
bottom: "fc7"
top: "cls_score"
name: "cls_score"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
type: "InnerProduct"
inner_product_param {
num_output: 21 类别数+1 #######
[plain] view
plain copy
layer {
bottom: "fc7"
top: "bbox_pred"
name: "bbox_pred"
type: "InnerProduct"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
inner_product_param {
num_output: 84 #4*(类别数+1) ##########
9.solver的修改
solver文件有3个,默认使用的solver是solver_30k40k.prototxt,如下stage 1 rpn,可以在faster_rcnn-master\experiments\+Model\ZF_for_Faster_RCNN_VOC2007.m中更换。[plain] view
plain copy
model.stage1_rpn.solver_def_file = fullfile(pwd, 'models', 'rpn_prototxts', 'ZF', 'solver_30k40k.prototxt');%solver_60k80k.prototxt
model.stage1_rpn.test_net_def_file = fullfile(pwd, 'models', 'rpn_prototxts', 'ZF', 'test.prototxt');
model.stage1_rpn.init_net_file = model.pre_trained_net_file;
!!!为防止与之前的模型搞混,训练前把output文件夹删除(或改个其他名),还要把imdb\cache中的文件删除(如果有的话)
更为简便的方法是直接用你的数据集的Annotations、ImageSets、JPEGImages文件夹替换VOC2007对应文件夹,那么上面只需进行1.(3)、4、5、7、8的修改。
10.开始训练
(1).下载预训练的ZF模型:fetch_data/fetch_model_ZF.m(下载失败的话用百度云下载:https://pan.baidu.com/s/1o6zipPS ,解压到faster_rcnn-master下,预训练模型参数用于初始化)
(2).运行:
[plain] view
plain copy
experiments/script_faster_rcnn_VOC2007_ZF.m
经过一会的准备工作,就进入迭代了:
11.训练完后
训练完后,不要急着马上测试,先打开output/faster_rcnn_final/faster_rcnn_VOC2007_ZF文件夹,打开detection_test.prototxt,作如下修改:将relu5(包括relu5)前的层删除,并将roi_pool5的bottom改为data和rois。并且前面input: "data"下的input_dim:分别改为1,256,50,50(如果是VGG就是1,512,50,50,其他修改基本一样),具体如下
[plain] view
plain copy
input: "data"
input_dim: 1
input_dim: 256
input_dim: 50
input_dim: 50
[plain] view
plain copy
# ------------------------ layer 1 -----------------------------
layer {
bottom: "data"
bottom: "rois"
top: "pool5"
name: "roi_pool5"
type: "ROIPooling"
roi_pooling_param {
pooled_w: 6
pooled_h: 6
spatial_scale: 0.0625 # (1/16)
}
}
12.测试
训练完成后,打开\experiments\script_faster_rcnn_demo.m,将模型路径改成训练得到的模型路径:[plain] view
plain copy
model_dir = fullfile(pwd, 'output', 'faster_rcnn_final', 'faster_rcnn_VOC2007_ZF')
将测试图片改成你的图片:
[plain] view
plain copy
im_names = {'001.jpg', '002.jpg', '003.jpg'};
注意:
如果你的数据集类别比voc2007数据集多,把script_faster_rcnn_demo.m中的showboxes(im, boxes_cell, classes, 'voc')作如下修改:
改为:
[plain] view
plain copy
showboxes(im, boxes_cell, classes);
或者:
[plain] view
plain copy
showboxes(im, boxes_cell, classes, 'default');
即去掉‘voc’或将其改为‘default’。
如果测试发现出现的框很多,且这些框没有目标,可以将阈值设高一些(默认是0.6):
[html] view
plain copy
thres = 0.9;
结果如下:
相关文章推荐
- Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Matlab版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Matlab版本)
- [置顶] Faster-RCNN+ZF用自己的数据集训练模型(Matlab版本)
- Faster-RCNN+ZF用自己的数据集训练模型(Matlab版本)
- Faster-RCNN+ZF用自己的数据集训练模型
- Faster-RCNN+ZF用自己的数据集训练模型 转