【目标检测】Fast RCNN算法详解
2016-04-12 13:05
253 查看
Girshick, Ross. “Fast r-cnn.” Proceedings of the IEEE International Conference on Computer Vision. 2015.
继2014年的RCNN之后,Ross Girshick在15年推出Fast RCNN,构思精巧,流程更为紧凑,大幅提升了目标检测的速度。在Github上提供了源码。
同样使用最大规模的网络,Fast RCNN和RCNN相比,训练时间从84小时减少为9.5小时,测试时间从47秒减少为0.32秒。在PASCAL VOC 2007上的准确率相差无几,约在66%-67%之间.
a. 在图像中确定约1000-2000个候选框
b. 对于每个候选框内图像块,使用深度网络提取特征
c. 对候选框中提取出的特征,使用分类器判别是否属于一个特定类
d. 对于属于某一特征的候选框,用回归器进一步调整其位置
更多细节可以参看这篇博客。
问题一:测试时速度慢
RCNN一张图像内候选框之间大量重叠,提取特征操作冗余。
本文将整张图像归一化后直接送入深度网络。在邻接时,才加入候选框信息,在末尾的少数几层处理每个候选框。
问题二:训练时速度慢
原因同上。
在训练时,本文先将一张图像送入网络,紧接着送入从这幅图像上提取出的候选区域。这些候选区域的前几层特征不需要再重复计算。
问题三:训练所需空间大
RCNN中独立的分类器和回归器需要大量特征作为训练样本。
本文把类别判断和位置精调统一用深度网络实现,不再需要额外存储。
以下按次序介绍三个问题对应的解决方法。
前五阶段是基础的conv+relu+pooling形式,在第五阶段结尾,输入P个候选区域(图像序号×1+几何位置×4,序号用于训练)?。
注:文中给出了大中小三种网络,此处示出最大的一种。三种网络基本结构相似,仅conv+relu层数有差别,或者增删了norm层。
∂L∂xi={0∂L∂yjδ(i,j)=falseδ(i,j)=true\frac{\partial L}{\partial x_i}=\begin{cases}0&\delta(i,j)=false\\ \frac{\partial L}{\partial y_j} & \delta(i,j)=true\end{cases}
其中判决函数δ(i,j)\delta(i,j)表示i节点是否被j节点选为最大值输出。不被选中有两种可能:xix_i不在yjy_j范围内,或者xix_i不是最大值。
对于roi max pooling,一个输入节点可能和多个输出节点相连。设xix_i为输入层的节点,yrjy_{rj}为第rr个候选区域的第jj个输出节点。
∂L∂xi=Σr,jδ(i,r,j)∂L∂yrj\frac{\partial L}{\partial x_i}=\Sigma_{r,j}\delta(i,r,j)\frac{\partial L}{\partial y_{rj}}
判决函数δ(i,r,j)\delta(i,r,j)表示i节点是否被候选区域r的第j个节点选为最大值输出。代价对于xix_i的梯度等于所有相关的后一层梯度之和。
其余参数随机初始化。
实际选择N=2, R=128。
R个候选框的构成方式如下:
cls_score层用于分类,输出K+1维数组pp,表示属于K类和背景的概率。
bbox_prdict层用于调整候选区域位置,输出4*K维数组tt,表示分别属于K类时,应该平移缩放的参数。
Lcls=−logpuL_{cls}=-\log p_u
loss_bbox评估检测框定位代价。比较真实分类对应的预测参数tut^u和真实平移缩放参数为vv的差别:
Lloc=Σ4i=1g(tui−vi)L_{loc}=\Sigma_{i=1}^4 g(t^u_i-v_i)
g为Smooth L1误差,对outlier不敏感:
g(x)={0.5x2|x|−0.5|x|<1otherwiseg(x)=\begin{cases} 0.5x^2& |x|<1\\|x|-0.5&otherwise \end{cases}
总代价为两者加权和,如果分类为背景则不考虑定位代价:
L={Lcls+λLlocLclsu为前景u为背景L=\begin{cases} L_{cls}+\lambda L_{loc}& u为前景\\ L_{cls} &u为背景\end{cases}
源码中bbox_loss_weights用于标记每一个bbox是否属于某一个类
y=Wxy=Wx
计算复杂度为u×vu\times v。
将WW进行SVD分解,并用前t个特征值近似:
W=UΣVT≈U(:,1:t)⋅Σ(1:t,1:t)⋅V(:,1:t)TW=U\Sigma V^T\approx U(:,1:t) \cdot \Sigma(1:t,1:t) \cdot V(:,1:t)^T
原来的前向传播分解成两步:
y=Wx=U⋅(Σ⋅VT)⋅x=U⋅zy=Wx = U\cdot (\Sigma \cdot V^T) \cdot x = U \cdot z
计算复杂度变为u×t+v×tu\times t+v \times t。
在实现时,相当于把一个全连接层拆分成两个,中间以一个低维数据相连。
在github的源码中,这部分似乎没有实现。
- 网络末端同步训练的分类和位置调整,提升准确度
- 使用多尺度的图像金字塔,性能几乎没有提高
- 倍增训练数据,能够有2%-3%的准确度提升
- 网络直接输出各类概率(softmax),比SVM分类器性能略好
- 更多候选窗不能提升性能
同年作者团队又推出了Faster RCNN,进一步把检测速度提高到准实时,可以参看这篇博客。
关于RCNN, Fast RCNN, Faster RCNN这一系列目标检测算法,可以进一步参考作者在15年ICCV上的讲座Training R-CNNs of various velocities。
继2014年的RCNN之后,Ross Girshick在15年推出Fast RCNN,构思精巧,流程更为紧凑,大幅提升了目标检测的速度。在Github上提供了源码。
同样使用最大规模的网络,Fast RCNN和RCNN相比,训练时间从84小时减少为9.5小时,测试时间从47秒减少为0.32秒。在PASCAL VOC 2007上的准确率相差无几,约在66%-67%之间.
思想
基础:RCNN
简单来说,RCNN使用以下四步实现目标检测:a. 在图像中确定约1000-2000个候选框
b. 对于每个候选框内图像块,使用深度网络提取特征
c. 对候选框中提取出的特征,使用分类器判别是否属于一个特定类
d. 对于属于某一特征的候选框,用回归器进一步调整其位置
更多细节可以参看这篇博客。
改进:Fast RCNN
Fast RCNN方法解决了RCNN方法三个问题:问题一:测试时速度慢
RCNN一张图像内候选框之间大量重叠,提取特征操作冗余。
本文将整张图像归一化后直接送入深度网络。在邻接时,才加入候选框信息,在末尾的少数几层处理每个候选框。
问题二:训练时速度慢
原因同上。
在训练时,本文先将一张图像送入网络,紧接着送入从这幅图像上提取出的候选区域。这些候选区域的前几层特征不需要再重复计算。
问题三:训练所需空间大
RCNN中独立的分类器和回归器需要大量特征作为训练样本。
本文把类别判断和位置精调统一用深度网络实现,不再需要额外存储。
以下按次序介绍三个问题对应的解决方法。
特征提取网络
基本结构
图像归一化为224×224直接送入网络。前五阶段是基础的conv+relu+pooling形式,在第五阶段结尾,输入P个候选区域(图像序号×1+几何位置×4,序号用于训练)?。
注:文中给出了大中小三种网络,此处示出最大的一种。三种网络基本结构相似,仅conv+relu层数有差别,或者增删了norm层。
roi_pool层的测试(forward)
roi_pool层将每个候选区域均匀分成M×N块,对每块进行max pooling。将特征图上大小不一的候选区域转变为大小统一的数据,送入下一层。roi_pool层的训练(backward)
首先考虑普通max pooling层。设xix_i为输入层的节点,yjy_j为输出层的节点。∂L∂xi={0∂L∂yjδ(i,j)=falseδ(i,j)=true\frac{\partial L}{\partial x_i}=\begin{cases}0&\delta(i,j)=false\\ \frac{\partial L}{\partial y_j} & \delta(i,j)=true\end{cases}
其中判决函数δ(i,j)\delta(i,j)表示i节点是否被j节点选为最大值输出。不被选中有两种可能:xix_i不在yjy_j范围内,或者xix_i不是最大值。
对于roi max pooling,一个输入节点可能和多个输出节点相连。设xix_i为输入层的节点,yrjy_{rj}为第rr个候选区域的第jj个输出节点。
∂L∂xi=Σr,jδ(i,r,j)∂L∂yrj\frac{\partial L}{\partial x_i}=\Sigma_{r,j}\delta(i,r,j)\frac{\partial L}{\partial y_{rj}}
判决函数δ(i,r,j)\delta(i,r,j)表示i节点是否被候选区域r的第j个节点选为最大值输出。代价对于xix_i的梯度等于所有相关的后一层梯度之和。
网络参数训练
参数初始化
网络除去末尾部分如下图,在ImageNet上训练1000类分类器。结果参数作为相应层的初始化参数。其余参数随机初始化。
分层数据
在调优训练时,每一个mini-batch中首先加入N张完整图片,而后加入从N张图片中选取的R个候选框。这R个候选框可以复用N张图片前5个阶段的网络特征。实际选择N=2, R=128。
训练数据构成
N张完整图片以50%概率水平翻转。R个候选框的构成方式如下:
类别 | 比例 | 方式 |
---|---|---|
前景 | 25% | 与某个真值重叠在[0.5,1]的候选框 |
背景 | 75% | 与真值重叠的最大值在[0.1,0.5)的候选框 |
分类与位置调整
数据结构
第五阶段的特征输入到两个并行的全连层中(称为multi-task)。cls_score层用于分类,输出K+1维数组pp,表示属于K类和背景的概率。
bbox_prdict层用于调整候选区域位置,输出4*K维数组tt,表示分别属于K类时,应该平移缩放的参数。
代价函数
loss_cls层评估分类代价。由真实分类uu对应的概率决定:Lcls=−logpuL_{cls}=-\log p_u
loss_bbox评估检测框定位代价。比较真实分类对应的预测参数tut^u和真实平移缩放参数为vv的差别:
Lloc=Σ4i=1g(tui−vi)L_{loc}=\Sigma_{i=1}^4 g(t^u_i-v_i)
g为Smooth L1误差,对outlier不敏感:
g(x)={0.5x2|x|−0.5|x|<1otherwiseg(x)=\begin{cases} 0.5x^2& |x|<1\\|x|-0.5&otherwise \end{cases}
总代价为两者加权和,如果分类为背景则不考虑定位代价:
L={Lcls+λLlocLclsu为前景u为背景L=\begin{cases} L_{cls}+\lambda L_{loc}& u为前景\\ L_{cls} &u为背景\end{cases}
源码中bbox_loss_weights用于标记每一个bbox是否属于某一个类
全连接层提速
分类和位置调整都是通过全连接层(fc)实现的,设前一级数据为xx后一级为yy,全连接层参数为WW,尺寸u×vu\times v。一次前向传播(forward)即为:y=Wxy=Wx
计算复杂度为u×vu\times v。
将WW进行SVD分解,并用前t个特征值近似:
W=UΣVT≈U(:,1:t)⋅Σ(1:t,1:t)⋅V(:,1:t)TW=U\Sigma V^T\approx U(:,1:t) \cdot \Sigma(1:t,1:t) \cdot V(:,1:t)^T
原来的前向传播分解成两步:
y=Wx=U⋅(Σ⋅VT)⋅x=U⋅zy=Wx = U\cdot (\Sigma \cdot V^T) \cdot x = U \cdot z
计算复杂度变为u×t+v×tu\times t+v \times t。
在实现时,相当于把一个全连接层拆分成两个,中间以一个低维数据相连。
在github的源码中,这部分似乎没有实现。
实验与结论
实验过程不再详述,只记录结论- 网络末端同步训练的分类和位置调整,提升准确度
- 使用多尺度的图像金字塔,性能几乎没有提高
- 倍增训练数据,能够有2%-3%的准确度提升
- 网络直接输出各类概率(softmax),比SVM分类器性能略好
- 更多候选窗不能提升性能
同年作者团队又推出了Faster RCNN,进一步把检测速度提高到准实时,可以参看这篇博客。
关于RCNN, Fast RCNN, Faster RCNN这一系列目标检测算法,可以进一步参考作者在15年ICCV上的讲座Training R-CNNs of various velocities。
相关文章推荐
- Android Studio 入门(转)
- LightOJ 1341 Aladdin and the Flying Carpet 数学
- Linux 基础--D1
- Linux EMMC子系统分析-初始化流程
- android RelativeLayout 内容居中解决办法
- JavaBean 对象与 Map的纠纷
- selector+shape
- HDU 4217 Data Structure?(线段树的查找和更新)
- 将图像转换为特征向量Transforming Images to Feature Vectors
- Claris and XOR (数位dp)
- hdu 3555 Bomb【数位dp~吖!!!!!】
- PHP常量详解:define和const的区别
- RNN语言模型中的在线表示学习Online Representation Learning in Recurrent Neural language models
- 提取重复代码不应该只从代码角度,可以从业务角度看看(转)
- MyBatis在Oracle中插入数据并返回主键的问题解决
- UVA846
- kafka & zookeeper 4/12/2016
- 【5】mysql数据操作语言DML(Data Manipulation Language)
- IOS TextField设置大全
- 关于新建Android Studio项目时默认的编译sdk版本导致的兼容问题