双层视频跟踪模型-CVPR11_robust tracking模型
2012-11-10 10:26
134 查看
受今年暑假Summer School中讲cv中多类分类的Ales教授影响,看了一篇他们组2011年发表在CVPR上的一篇文章《An adaptive coupled-layer visual model for robust
visual tracking》,感觉思路比较清晰,就精读了一下,在这里贴出一些感想与实施细则,方便大家进行研究(*^__^*) ……
思路:用一个双层耦合模型,维护新特征点组成的patch的检测与outdated patch的删除。这样一个机制,
在local层进行与target无关patch的remove
在global层将xindepatch加入local layer
其间,作者几乎把所有的东西都用概率表示的……这个不评价……估计是Pattern Classification看了好几遍吧……
2.1. Local Layer
讲了local layer的组成单位:patch的数据结构,跟踪目标的表示(最大化一个概率),并分解这个目标(为概率的乘积)
2.2 作者定义了两个规则,visual consistency和drift from majority,进行local layer的更新。
2.3 在Global Layer,应用3个度量:color, motion, shape描述patch,并适时将新的patch加入model。
2.4. 两层的融合,形成本文的核心算法。
关于Computer Vision更多的学习资料将继续更新,敬请关注本博客和新浪微博Sophia_qing。
转自 abcjennifer ,在此,谢谢原作者!
visual tracking》,感觉思路比较清晰,就精读了一下,在这里贴出一些感想与实施细则,方便大家进行研究(*^__^*) ……
思路:用一个双层耦合模型,维护新特征点组成的patch的检测与outdated patch的删除。这样一个机制,
在local层进行与target无关patch的remove
在global层将xindepatch加入local layer
其间,作者几乎把所有的东西都用概率表示的……这个不评价……估计是Pattern Classification看了好几遍吧……
2.1. Local Layer
讲了local layer的组成单位:patch的数据结构,跟踪目标的表示(最大化一个概率),并分解这个目标(为概率的乘积)
2.2 作者定义了两个规则,visual consistency和drift from majority,进行local layer的更新。
2.3 在Global Layer,应用3个度量:color, motion, shape描述patch,并适时将新的patch加入model。
2.4. 两层的融合,形成本文的核心算法。
关于Computer Vision更多的学习资料将继续更新,敬请关注本博客和新浪微博Sophia_qing。
转自 abcjennifer ,在此,谢谢原作者!
相关文章推荐
- 双层视频跟踪模型-CVPR11_robust tracking模型
- [Robust Tracking]视频跟踪MEEM — 多专家模型
- TensorFlow知网文章1-TensorFlow平台下的视频目标跟踪深度学习模型设计
- 视频瞳孔跟踪之星团模型
- 视频跟踪论文读后感系列一:Adaptive Color Attributes for Real-Time Visual Tracking(CVPR2014)
- Fedora Core 11 Alpha试用视频(由于youtube问题暂时无法访问)
- 目标跟踪相关资源(含模型,最新论文,代码,牛人等)
- CVPR 2017 目标跟踪相关项目
- Sharepoint学习笔记—ECMAScript对象模型系列-- 11、 Enable/Disable Ribbon上的Button
- 常用视频跟踪测试数据集--(Visual Tracking Benchmark)
- DedeCMS 5.7视频模型精简版v2.0发布 支持首页调用 支持前台发布 支持自定义宽高
- 比微软kinect更强的视频跟踪算法--TLD跟踪算法介绍
- 缺陷跟踪的两个经典分析模型---转帖
- 比微软kinect更强的视频跟踪算法--TLD跟踪算法介绍
- CVPR—2017会议全套视频下载地址分享
- 视频目标检测与跟踪实现代码
- AVT21视频自动跟踪模块
- Entity Framework实体模型 入门视频教程
- 视频目标检测跟踪--Detect to Track and Track to Detect
- 3D视频亮度的“向量和”模型