您的位置:首页 > 运维架构

opencv 光流法对运动目标跟踪Video

2013-08-18 00:32 274 查看
     首先利用goodFeaturesToTrack函数得到图像中的强边界作为跟踪的特征点,接下来要调用calcOpticalFlowPyrLK函数,输入两幅连续的图像,并在第一幅图像里选择一组特征点,输出为这组点在下一幅图像中的位置。再把得到的跟踪结果过滤一下,去掉不好的特征点。再把特征点的跟踪路径标示出来。

    测试视频文件:

    
birk.rar

 

code:

#include <opencv2/video/video.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc.hpp>
#include <opencv2/core/core.hpp>

#include <iostream>
#include <cstdio>

using namespace std;
using namespace cv;

void tracking(Mat &frame, Mat &output);

bool addNewPoints();

bool acceptTrackedPoint(int i);

string window_name = "optical flow tracking";

Mat gray;        // 当前图片

Mat gray_prev;        // 预测图片

vector<Point2f> points[2];        // point0为特征点的原来位置,point1为特征点的新位置

vector<Point2f> initial;        // 初始化跟踪点的位置

vector<Point2f> features;        // 检测的特征

int maxCount = 500;        // 检测的最大特征数

double qLevel = 0.01;        // 特征检测的等级

double minDist = 10.0;        // 两特征点之间的最小距离

vector<uchar> status;        // 跟踪特征的状态,特征的流发现为1,否则为0

vector<float> err;

int main()

{

Mat frame;

Mat result;

//         CvCapture* capture = cvCaptureFromCAM( -1 );        // 摄像头读取文件开关

VideoCapture capture("C:\\Users\\zxl\\Desktop\\bike.avi");

if(capture.isOpened()/*capture*/)        // 摄像头读取文件开关

{

while(true)

{

//                         frame = cvQueryFrame( capture );        // 摄像头读取文件开关

capture >> frame;

if(!frame.empty())

{
tracking(frame, result);

}

else

{
printf(" --(!) No captured frame -- Break!");

break;

}

int c = waitKey(100);

if( (char)c == 27 )

{

break;
}
}

}

return 0;

}

//////////////////////////////////////////////////////////////////////////

// function: tracking

// brief: 跟踪

// parameter: frame        输入的视频帧

//                          output 有跟踪结果的视频帧

// return: void

//////////////////////////////////////////////////////////////////////////

void tracking(Mat &frame, Mat &output)

{

cvtColor(frame, gray, CV_BGR2GRAY);

frame.copyTo(output);

// 添加特征点

if (addNewPoints())

{

goodFeaturesToTrack(gray, features, maxCount, qLevel, minDist);

points[0].insert(points[0].end(), features.begin(), features.end());

initial.insert(initial.end(), features.begin(), features.end());

}

if (gray_prev.empty())

{

gray.copyTo(gray_prev);

}

// l-k光流法运动估计

calcOpticalFlowPyrLK(gray_prev, gray, points[0], points[1], status, err);

// 去掉一些不好的特征点

int k = 0;

for (size_t i=0; i<points[1].size(); i++)

{

if (acceptTrackedPoint(i))

{

initial[k] = initial[i];

points[1][k++] = points[1][i];

}

}

points[1].resize(k);

initial.resize(k);

// 显示特征点和运动轨迹

for (size_t i=0; i<points[1].size(); i++)

{

line(output, initial[i], points[1][i], Scalar(0, 0, 255));

circle(output, points[1][i], 3, Scalar(255, 0, 0), -1);

}

// 把当前跟踪结果作为下一此参考

swap(points[1], points[0]);

swap(gray_prev, gray);

imshow(window_name, output);

}

//////////////////////////////////////////////////////////////////////////

// function: addNewPoints

// brief: 检测新点是否应该被添加

// parameter:

// return: 是否被添加标志

//////////////////////////////////////////////////////////////////////////

bool addNewPoints()

{

return points[0].size() <= 10;

}

//////////////////////////////////////////////////////////////////////////

// function: acceptTrackedPoint

// brief: 决定哪些跟踪点被接受

// parameter:

// return:

//////////////////////////////////////////////////////////////////////////

bool acceptTrackedPoint(int i)

{

return status[i] && ((abs(points[0][i].x - points[1][i].x) + abs(points[0][i].y - points[1][i].y)) > 2);

}


 

 

 

 

 

 
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: