您的位置:首页 > 其它

理解矩阵特征值及应用

2015-09-23 16:00 99 查看
将N阶对称矩阵A分解,用N个特征向量Q和特征值 Σ 来表示,不同特征值对应的特征向量是相互正交的。



特征向量和特征值可以很好的描述原始矩阵,方便实际应用。将矩阵投影在特征向量上,特征值即投影长度。特征值越大,表示矩阵在对应特征向量上信息量越大,导数越大。反之,特征值越小,表示信息量较少,也可删除对应特征向量上的数据,降维减少数据量。可应用于最优化求解,图像处理(如特征点描述和特征提取等),数据挖掘(如数据降维等)。

详见链接:知乎上很多大牛,会把很多貌似很深奥的东西解释的很容易理解。http://www.zhihu.com/question/21874816

另该链接上降维协方差矩阵计算写的比较模糊,可以参考PCA主成份分析http://www.360doc.com/content/14/0526/06/15831056_380900310.shtml

其中3个维度协方差计算公式





Matlab代码(其中A为样品矩阵)

C = cov(A)


简化求法

先让样本矩阵中心化,即每一维度减去该维度的均值,然后直接用新的到的样本矩阵乘上它的转置,然后除以(N-1)即可。计算结果与上述相同。

Matlab代码(其中A为样品矩阵,n为样品数)

B= A-repmat(mean(A),n,1);
C = B'*B/(n-1)
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: