Deep Feature Flow for Video Recognition读书笔记
2017-06-05 08:46
363 查看
摘要:本文主要提出了一个深度特征流算法,用于视频的识别。它仅在稀疏的关键帧上运行计算量极大的卷积子网络,并通过流场将它们的深度特征图传输到其他帧。由于流计算方法相对较快,所以算法得到了明显的加速。整个框架的端到端的训练明显提升了识别的精度。
由于中间卷积特征图与输入图像拥有相同的空间大小(通常以较小分辨率,例如,16×更小)。它们保留了低级图像内容与中高级语义内容之间的空间对应关系。这种对应关系通过空间形变给附近帧之间的特征传播提供了机会,类似于光流法。
本文提出了深度特征流算法仅在稀疏的关键帧上运行计算量极大的卷积子网络,并通过流场将它们的深度特征图传输到其他帧。方法如下图所示。两个中间特征图分别对应“汽车”和“人”。它们在两个相邻帧上是相似的。从关键帧传播到当前帧之后,传播的特征与原始特征相似。
![](https://img-blog.csdn.net/20170605084905915?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMDIxMzE4Mw==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
通常,流估计和特征传播比卷积计算迅速得多。当流场也由网络进行估计时,整个网络架构将被端对端地进行训练,为识别任务同时优化图像识别网络和流网络,最后使得识别准确性得到显著提升。
给定图像识别任务和前馈卷积网络N对输入图像I的输出的结果为
![](http://www.zhihu.com/equation?tex=y%3DN%5Cleft%28+I+%5Cright%29+)
。我们的目标是将网络应用于所有视频帧
![](http://www.zhihu.com/equation?tex=I_%7Bi%7D+)
,
![](http://www.zhihu.com/equation?tex=i%3D0%2C...%2C%5Cinfty+)
。
首先我们将N分解成两个连续的子网络。第一个子网络
![](http://www.zhihu.com/equation?tex=N_%7Bfeat%7D)
,被称为特征网络,是完全卷积网络,并输出多个中间特征图,
![](http://www.zhihu.com/equation?tex=f%3DN_%7Bfeat%7D%5Cleft%28+I+%5Cright%29++)
。第二个子网
![](http://www.zhihu.com/equation?tex=N_%7Btask%7D)
,被称为任务网络,是根据任务的不同具有的特定结构,在特征图上执行识别任务,
![](http://www.zhihu.com/equation?tex=y%3DN_%7Btask%7D%5Cleft%28+f+%5Cright%29+)
。
![](https://img-blog.csdn.net/20170605084959806?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMDIxMzE4Mw==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
连续的视频帧非常相似,在深度特征图中的相似性更强。我们利用相似性来降低计算成本。具体来说,特征网络
![](http://www.zhihu.com/equation?tex=N_%7Bfeat%7D)
只在稀疏的关键帧上运行。非关键帧
![](http://www.zhihu.com/equation?tex=I_%7Bi%7D)
的特征图则由其上一个的关键帧
![](http://www.zhihu.com/equation?tex=I_%7Bk%7D)
的特征图传播得到。
令
![](http://www.zhihu.com/equation?tex=M_%7Bi%5Crightarrow+k%7D)
为二维流场,由流估计算法[1,2]
![](http://www.zhihu.com/equation?tex=F)
获得,其中,
![](http://www.zhihu.com/equation?tex=M_%7Bi%5Crightarrow+k%7D%3DF%5Cleft%28+I_%7Bk%7D%2C+I_%7Bi%7D+%5Cright%29+)
。特征图被双线性插值算法调整到相同的空间分辨率上进行传播。它将当前帧
![](http://www.zhihu.com/equation?tex=i)
中的位置
![](http://www.zhihu.com/equation?tex=p)
投影到关键帧
![](http://www.zhihu.com/equation?tex=k)
中的位置
![](http://www.zhihu.com/equation?tex=p%2B%5Cdelta+p)
,其中
![](http://www.zhihu.com/equation?tex=%5Cdelta+p%3DM_%7Bi%5Crightarrow+k%7D%5Cleft%28+p+%5Cright%29+)
。
由于
![](http://www.zhihu.com/equation?tex=%5Cdelta+p)
值通常为分数,因此通过双线性插值来实现特征的形变:
![](http://www.zhihu.com/equation?tex=f_%7Bi%7D%5E%7Bc%7D%5Cleft%28+p+%5Cright%29%3D%5Csum_%7Bq%7D%7BG%5Cleft%28+q%2Cp%2B%5Cdelta+p+%5Cright%29f_%7Bk%7D%5E%7Bc%7D%5Cleft%28+q+%5Cright%29++%7D+%5Cleft%28+1+%5Cright%29+)
其中
![](http://www.zhihu.com/equation?tex=c)
为特征图
![](http://www.zhihu.com/equation?tex=f)
中的通道,
![](http://www.zhihu.com/equation?tex=q)
枚举了特征图中的所有的空间位置,
![](http://www.zhihu.com/equation?tex=G%5Cleft%28+%5Ccdot%2C%5Ccdot+++%5Cright%29+)
表示双线性插值的内核。
注意,
![](http://www.zhihu.com/equation?tex=G)
是二维的,下式将其分成两个一维的内核:
![](http://www.zhihu.com/equation?tex=G%5Cleft%28+q%2Cp%2B%5Cdelta+p+%5Cright%29%3Dg%5Cleft%28+q_%7Bx%7D%2Cp_%7Bx%7D%2B%5Cdelta+p%7Bx%7D+%5Cright%29+%5Ccdot+g%5Cleft%28+q_%7By%7D%2Cp_%7By%7D%2B%5Cdelta+p%7By%7D+%5Cright%29%5Cleft%28+2+%5Cright%29+)
其中
![](http://www.zhihu.com/equation?tex=g%5Cleft%28+a%2Cb+%5Cright%29+%3Dmax%5Cleft%28+0%2C1-%5Cleft%7C+a-b+%5Cright%7C+%5Cright%29++)
由于流估计错误等造成空间形变计算不准确。为了更好地近似特征,它们的幅度由“尺度场”
![](http://www.zhihu.com/equation?tex=S_%7Bi%5Crightarrow+k%7D)
来调整,其空间维度和通道维度与特征图相同。“尺度场”通过在两帧上应用“比例函数”
![](http://www.zhihu.com/equation?tex=S)
来获得,
![](http://www.zhihu.com/equation?tex=S_%7Bi%5Crightarrow+k%7D%3DS%5Cleft%28+I_%7Bk%7D%2CI_%7Bi%7D+%5Cright%29+)
最后,特征传播函数定义为:
![](http://www.zhihu.com/equation?tex=f_%7Bi%7D%3DW%5Cleft%28+f_%7Bk%7D%2CM_%7Bi%5Crightarrow+k%7D%2CS_%7Bi%5Crightarrow+k%7D+%5Cright%29+%5Cleft%283+%5Cright%29+)
其中
![](http://www.zhihu.com/equation?tex=W)
对特征图中的所有位置和所有通道使用公式(1),并让特征应用尺度
![](http://www.zhihu.com/equation?tex=S_%7Bi%5Crightarrow+k%7D)
以元素方式进行倍增。
这种视频识别的算法称为深度特征流算法,具体流程详见下面的流程图:
![](https://img-blog.csdn.n<br/>4000<br/>et/20170605085103376?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMDIxMzE4Mw==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
关键帧的调整:视频识别加速的关键之一是何时分配新的关键帧。在这项工作中,我们使用简单的固定关键帧,即关键帧持续时间长度
![](http://www.zhihu.com/equation?tex=l)
是固定常数。本文在最后给挖了个坑,它提出图像内容的各种变化可能需要变化的
![](http://www.zhihu.com/equation?tex=l)
来平滑的权衡精度和速度。理想情况下,当图像内容发生急剧变化时,应分配新的关键帧。如何设计有效且自适应的关键帧长度可以进一步提高识别的精度和速度。
由于中间卷积特征图与输入图像拥有相同的空间大小(通常以较小分辨率,例如,16×更小)。它们保留了低级图像内容与中高级语义内容之间的空间对应关系。这种对应关系通过空间形变给附近帧之间的特征传播提供了机会,类似于光流法。
本文提出了深度特征流算法仅在稀疏的关键帧上运行计算量极大的卷积子网络,并通过流场将它们的深度特征图传输到其他帧。方法如下图所示。两个中间特征图分别对应“汽车”和“人”。它们在两个相邻帧上是相似的。从关键帧传播到当前帧之后,传播的特征与原始特征相似。
通常,流估计和特征传播比卷积计算迅速得多。当流场也由网络进行估计时,整个网络架构将被端对端地进行训练,为识别任务同时优化图像识别网络和流网络,最后使得识别准确性得到显著提升。
给定图像识别任务和前馈卷积网络N对输入图像I的输出的结果为
。我们的目标是将网络应用于所有视频帧
,
。
首先我们将N分解成两个连续的子网络。第一个子网络
,被称为特征网络,是完全卷积网络,并输出多个中间特征图,
。第二个子网
,被称为任务网络,是根据任务的不同具有的特定结构,在特征图上执行识别任务,
。
连续的视频帧非常相似,在深度特征图中的相似性更强。我们利用相似性来降低计算成本。具体来说,特征网络
只在稀疏的关键帧上运行。非关键帧
的特征图则由其上一个的关键帧
的特征图传播得到。
令
为二维流场,由流估计算法[1,2]
获得,其中,
。特征图被双线性插值算法调整到相同的空间分辨率上进行传播。它将当前帧
中的位置
投影到关键帧
中的位置
,其中
。
由于
值通常为分数,因此通过双线性插值来实现特征的形变:
其中
为特征图
中的通道,
枚举了特征图中的所有的空间位置,
表示双线性插值的内核。
注意,
是二维的,下式将其分成两个一维的内核:
其中
由于流估计错误等造成空间形变计算不准确。为了更好地近似特征,它们的幅度由“尺度场”
来调整,其空间维度和通道维度与特征图相同。“尺度场”通过在两帧上应用“比例函数”
来获得,
最后,特征传播函数定义为:
其中
对特征图中的所有位置和所有通道使用公式(1),并让特征应用尺度
以元素方式进行倍增。
这种视频识别的算法称为深度特征流算法,具体流程详见下面的流程图:
关键帧的调整:视频识别加速的关键之一是何时分配新的关键帧。在这项工作中,我们使用简单的固定关键帧,即关键帧持续时间长度
是固定常数。本文在最后给挖了个坑,它提出图像内容的各种变化可能需要变化的
来平滑的权衡精度和速度。理想情况下,当图像内容发生急剧变化时,应分配新的关键帧。如何设计有效且自适应的关键帧长度可以进一步提高识别的精度和速度。
相关文章推荐
- 视频检测分割--Deep Feature Flow for Video Recognition
- Deep Feature Flow for Video Recognition 安装
- 人脸识别(一)A Discriminative Feature Learning Approach for Deep Face Recognition
- A Discriminative Feature Learning Approach for Deep Face Recognition 配置 caffe-face 并训练数据
- 人脸识别 - A Discriminative Feature Learning Approach for Deep Face Recognition
- 解读flow-guided feature aggregation for video object detection
- A Discriminative Feature Learning Approach for Deep Face Recognition 原理及在caffe实验复现
- 视频目标检测--Flow-Guided Feature Aggregation for Video Object Detection
- 【论文笔记】视频物体检测(VID)系列 FGFA:Flow-Guided Feature Aggregation for Video Object Detection
- DeCAF: A deep convolutional activation feature for generic visual recognition
- 阅读A Discriminative Feature Learning Approach for Deep Face Recognition
- A Discriminative Feature Learning Approach for Deep Face Recognition, ECCV16.
- A Discriminative Feature Learning Approach for Deep Face Recognition
- A Discriminative Feature Learning Approach for Deep Face Recognition 的源码部分分析
- A Discriminative Feature Learning Approach for Deep Face Recognition 原理及在caffe实验复现
- DeCAF: A Deep Convolutional Activation Featurefor Generic Visual Recognition阅读报告(1)
- 【论文笔记】DeCAF: A Deep Convolutional Activation Feature for Generic Visual Recognition
- A Discriminative Feature Learning Approach for Deep Face Recognition
- 人脸识别 - A Discriminative Feature Learning Approach for Deep Face Recognition
- 17.4.10 Deep Heterogeneous Feature Fusion for Template-Based Face Recognition 小感