您的位置:首页 > 大数据 > 人工智能

DAISY描述子简介

2014-08-26 19:37 1136 查看
这篇文章我并没有完全看明白,先写篇博客把自己看懂的地方记下,不懂的地方等以后再回来填坑。

DAISY是面向稠密特征提取的可快速计算的局部图像特征描述子,它本质思想和SIFT是一样的:分块统计梯度方向直方图,不同的是,DAISY在分块策略上进行了改进,利用高斯卷积来进行梯度方向直方图的分块汇聚,这样利用高斯卷积的可快速计算性就可以快速稠密地进行特征描述子的提取。比较巧合的是,DAISY这种特征汇聚策略被一些研究者(Matthen Brown,Gang Hua,Simon Winder)通过机器学习的方法证明相对于其他几种特征汇聚策略(卡迪尔坐标下分块、极坐标下分块)是最优的。[1]



传统的SIFT方法,使用了加权的梯度幅值直方图,当待计算点平移或旋转,直方图的数值也会随之改变,在提取稠密特征的时候就需要反复计算梯度直方图,耗时很长。





而DAISY算子使用的是高斯核卷积的方法来对梯度直方图加权,由于高斯核有各向同性,对于图像的旋转,结果体现到直方图上只是直方图柱子(bin)的顺序的改变,因此不需要重复计算梯度直方图。



另外,由于高斯核的卷积性质(空间域的卷积等于频率域的相乘,体现在高斯核中就是指数项的相加),在计算DAISY算子的时候只需要对梯度图进行多次高斯卷积,可以得到不同权值的梯度图(一般为三层,对应上图的三层环状圆心序列)。

DAISY算子使用高斯核卷积来代替SIFT算子的加权运算,这样在计算稠密特征的时候就只需要在对应的layer上(中心点为原图像梯度图G0,第一层圆环圆心取第一次卷积(GΣ1)的结果,第二层圆环圆心取第二次卷积(GΣ2)的结果,下同)取对应的区域的值出来即可。避免了重复计算。



与SIFT相似,DAISY也是把梯度向量投影到八个不同的方向(即H取8),G1到G8是图像梯度G投影到八个不同方向后,再把负值归0的结果。将这8个梯度图合在一起组成一个hΣ向量。



最后,对于给定的(u,v)点,已(u,v)为中心,由内到外,从0°到360°,把所有的hΣ向量(注意中心、内层、中层、外层取的卷积层数是不一样的)按顺序排列,就构成了一个DAISY算子。通常情况下Q=3,上述例子中DAISY算子的维度是(3*8+1)*8=200.



因为高斯核可以分离计算,所以2D的卷积计算过程可以分解为两次1D的卷积,这个性质使得DAISY算子得以快速计算。

EPFL的DAISY主页地址

参考文献:

1、Local feature descriptors

2、基于3DDAISY描述符的动作识别 邓超 硕士论文

3、基于DAISY描述符和改进型权重核的快速局部立体匹配  刘天亮 霍智勇 朱秀昌 刘峰

4、Tola, Engin, Vincent Lepetit, and Pascal Fua. "Daisy: An efficient dense descriptor applied to wide-baseline stereo." Pattern
Analysis and Machine Intelligence, IEEE Transactions on 32.5 (2010): 815-830.
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息