您的位置:首页 > 其它

模式识别中的特征向量和矩阵的特征向量有什么关系

2017-03-09 18:03 399 查看
模式识别中的特征向量和矩阵的特征向量有什么关系

 

特征向量是个什么东西?学过矩阵论的人都知道,一个可逆的矩阵可以分解为特征值和特征向量的乘积,即AV=lambaV,其中V是特征向量矩阵;这个的好处是可以把一个矩阵换基;即将一个矩阵基底转换为以另一组以特征向量为基的矩阵;好处呢,显而易见,可以抛弃太小的特征值对应的基,他没意义嘛,从而起到降维的效果,这就是PCA降维,可以百度一下;

(横线注解:

矩阵的相似对角化:就是将原矩阵化为对角矩阵,且对角矩阵对角线上的每个元素都是原矩阵的特征值。

方法:
http://wenku.baidu.com/link?url=vDLXD-qY20oEAG5EQet9t0T0Pjj2vuSLVny6_jIkeO1mHczJ1HZUmdvUw2ElpghyuGscITlA5Y2k91uu7gJgNWnStnJKFuRGWSsuOcjp4hO
第10页,寻找待对角化矩阵的An的n个线性无关的特征向量组成的列构成可逆矩阵T,对角元素为各个列向量对应的特征值

一般物理上则是把对角化作为正交对角化或者酉变换对角化。因为正交阵(酉阵)有其良好的单位正交性,而且这种对角化方式保留了矩阵本身的关于特征值(谱)的重要信息,在进行理论计算中尤为方便。顺便提一句,在物理学中,很多矩阵都具有良好的性质,特别是对称性,这使得矩阵总是可以被对角化的。

(另:一般来说,对角化就指的是相似对角化,如果是其他类型的对角化,比如正交对角化、合同对角化,一般会明说的。不加说明的话就是相似对角化。)



那么模式识别讲的特征向量是什么呢,这个是一个截然不同的概念,模式识别重在分类,分类用什么数据呢,当然是特征向量,这个特征指的是,你分类物体的特征,如人脸,指纹,那你就可以从这些图片上面提取;那提取的这些数据就构成了你物体的一个特征,这就是特征向量;当然,可能你提取的特征向量太多维,那么这个时候,为了计算简便,你就需要降维,就可以通过上面所讲的PCA算法;通过降维后的数据进行计算。

所以,这是两种截然不同的概念
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: