您的位置:首页 > 编程语言 > Python开发

机器学习算法笔记系列之深入理解主成分分析PCA-Python实现篇

2016-04-19 16:53 1126 查看
Author: shizhixin

Blog: http://blog.csdn.net/shizhixin

Weibo:http://weibo.com/zhixinshi

Email: zstarstone@163.com

Date: 2016-04-19

Note: 本笔记是机器学习算法笔记系列之深入理解主成分分析PCA的实现篇,有自己写的Python实现版本的PCA,同时有调用scikit-learn接口进行实现PCA。

1 简介及处理流程

主成分分析(PCA)算法原理请参考博客 机器学习算法笔记系列之深入理解主成分分析PCA

为了对比,实现篇中采用开源机器学习scikit-learn也实现了PCA,具体scikit-learn的安装配置过程参考博客: Scikit-learn的安装过程

2 源代码

# -*- coding: utf-8 -*-
#**Author:** shizhixin
#**Blog:** http://blog.csdn.net/shizhixin #**Weibo:**http://weibo.com/zhixinshi
#**Email:** zstarstone@163.com
#**Date:** 2016-04-14
#**Note:** 本源码是PCA算法实现篇,具体原理参考/article/9076619.html

import numpy as np
import matplotlib.pyplot as plt
from sklearn.decomposition import PCA

#const
EPSILON = 0.00001

#input:dataSet原始矩阵X;
#output:返回X的协方差矩阵,C = 1/(n-1) * X^T * X
#Note:#计算协方差矩阵,C = 1/(n-1) * X^T * X,其中X为m*n的矩阵,m为样本数,n为维度
def my_cov(dataSet):
mean_data = np.mean(dataSet,0)
move_mean_data = dataSet - mean_data
my_cov = (np.dot(move_mean_data.transpose(),move_mean_data)) / (dataSet.shape[0] - 1)
return my_cov

#input:mat_cov原始矩阵;eigV, eigVector矩阵特征值及对应的特征向量
#output:返回Ax = \lambda x是否相等,true为相等
#Note: 测试特征值是否计算正确,测试Ax = \lambda x是否相等
#注意这里两个浮点数相等的判断
def testEigh(mat_cov, eigV, eigVector):
num_eigV = eigV.shape[0]
for i in range(0, num_eigV):
if (((mat_cov*eigVector[:,i]) - (eigV[i]*eigVector[:,i]))< EPSILON).all():
return True
else:
return False

###########coding by myself####################
fd = open('testSet.txt')
lines = fd.readlines()
m = len(lines)
sampleDataSet = np.zeros((m,2))

for pos, line in enumerate(lines):
numstr = line.split()
sampleDataSet[pos, :] = map(float, numstr)

p1 = plt.subplot(121)
p1.plot(sampleDataSet[:,0],sampleDataSet[:,1],'.')

mean_sample = np.mean(sampleDataSet, 0)
move_mean_sample = sampleDataSet - mean_sample

np_cov = np.cov(move_mean_sample,rowvar=0)
my_cov_mat = my_cov(sampleDataSet)

mat_cov = np.mat(np_cov)
(eigV, eigVector) = np.linalg.eigh(mat_cov)
if not testEigh(mat_cov, eigV, eigVector):
print('the calc of eig vector is error')
else:
print eigVector
pca_mat = eigVector[:,-1]
pca_data = np.mat(move_mean_sample)*pca_mat
recon_data = (pca_data *pca_mat.T)+mean_sample

p1.plot(recon_data[:,0],recon_data[:,1],'*')

p2 = plt.subplot(122)
p2.plot(sampleDataSet[:,0],sampleDataSet[:,1],'.')

###########coding by scikit-learn####################
X=sampleDataSet
pca = PCA(n_components=1)
pca.fit(X)
X_new = pca.transform(X)
print(pca.explained_variance_ratio_)
print X_new
XX = pca.inverse_transform(X_new)
p2.plot(XX[:,0],XX[:,1],'*')
plt.show()


3 结果展示



4 个人总结

本篇用Python对PCA做了实现,一方面由于Python处于学习中,没有对PCA函数进行封装,应该参考skilearn建立一个PCA的类,类中包含获取特征值,特征向量,数据重构等内容。

Python的实现中仅仅为了演示PCA的处理过程,没有考虑到算法的通用性,比如选择降维的维度,对输入的样本进行维度要求等,没有优化代码。

scikit-learn的实现的确非常不错,而且有源码,想进一步学习的可以参考其源码,见参考文献。

5 致谢文献

scikit-learn,PCA 的skilearn源码实现,https://github.com/scikit-learn/scikit-learn/blob/51a765acfa4c5d1ec05fc4b406968ad233c75162/sklearn/decomposition/pca.py

scikit-learn,PCA 的相关介绍,http://scikit-learn.org/stable/modules/generated/sklearn.decomposition.PCA.html#sklearn.decomposition.PCA

scikit-learn,进一步阅读参考,http://scikit-learn.org/stable/modules/decomposition.html
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: