您的位置:首页 > 其它

RCNN学习笔记(3)-Fast-RCNN

2017-10-07 20:53 344 查看

Fast-RCNN

reference link:

晓雷机器学习笔记

xyy19920105博客——目标检测——从RCNN到Faster RCNN 串烧

RCNN、SPP-net的流程



上图分别为RCNN和SPP-net CNN提取特征的流程,在此之后都将通过SVM分类 以及 Bbox回归

所以可以看出,RCNN和SPP-net在训练pipeline是隔离的:提取proposal->cnn提取特征->SVM分裂->Bbox回归;

Fast R-CNN的贡献

实现大部分end-to-end训练 ,提取proposal阶段除外:所有的特征都暂存在显存中,不需要额外的磁盘空间

把最后一层的Softmax换成两个,一个是对区域的分类Softmax(包括背景),另一个是对bounding box的微调。

//(对于SVM和Softmax,论文在SVM和Softmax的对比实验中说明,SVM的优势并不明显,故直接用Softmax将整个网络整合训练更好。对于联合训练: 同时利用了分类的监督信息和回归的监督信息,使得网络训练的更加鲁棒,效果更好。这两种信息是可以有效联合的。)

提出了一个RoI层(SPP的变形)SPP是pooling乘多个固定尺度,RoI只pooling到固定的尺度(6×6)



结构上的优化。

指出SPP-net训练时的不足之处,并提出新的训练方式,就是把同张图片的prososals作为一批进行学习,而proposals的坐标直接映射到conv5层上,这样相当于一个batch一张图片的所以训练样本只卷积了一次。

ROI Pooling

Region of Internet

由于不是固定尺寸的输入,因此每次的pooling网格大小需要手动计算,比如某个ROI区域坐标为(x1,y1,x2,y2),那么输入的size为(y2-y1).(x2-x1)

output field size = ( input field size - kernel size + 2*padding ) / stride + 1

感受野:input field size = (output field size - 1)* stride - 2*padding + kernel size

公式:

对于Convolution/Pooling layer(博文作者忘了加上padding本文在这里补上):



对于 Neuronlayer(ReLU/Sigmoid/..) :ri = r(i+1) (显然如此)

而SPP-net中提出的是把原始ROI左上角和右下角映射到feature map上的两个对应点。如图所示:



左上角的点(x,y)映射到 feature map上的(x’,y’) : 使得 (x’,y’) 在原始图上感受野(上图绿色框)的中心点 与(x,y)尽可能接近。

左上角的点:



右下角的点:



Bounding-Box Regression

使用ROI Pooling层 其实就是 完成了最简单粗暴的对象检测,也就是先用selective search 等proposal 提取一批box坐标,然后输入的网络对每个box包含一个对象进行预测。

此时,神经网络依然仅仅是一个图片分类的工具而已,只不过不是整图分类,而是ROI区域的分类,那么

能不能把输入的box坐标也放到深度神经网络里进行一些优化?

在Fast-RCNN中,有两个输出层:

第一个是针对每个ROI区域的分类概率预测



第二个是针对每个ROI区域坐标的偏移优化


是多类检测的类别序号。

值得注意的是,他在回归问题上并没有用很常见的2范数作为回归,而是使用所谓的鲁棒L1范数作为损失函数
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: