机器学习笔记——SVM(2)
2017-09-11 16:10
393 查看
支持向量机
SVM+PCA 人脸识别
打印出的结果为:
Figure1:
Figure2:
可用
查看此时SVM最佳的参数搭配;
输出为:
即C=1000.0,gamma=0.005
SVM+PCA 人脸识别
#!/usr/bin/python # -*- coding: utf-8 -*- from __future__ import print_function import matplotlib.pyplot as plt import logging logging.basicConfig() from sklearn.model_selection import train_test_split from sklearn.model_selection import GridSearchCV from sklearn.datasets import fetch_lfw_people from sklearn.decomposition import PCA # #进行人脸识别的任务,核心算法采用SVM from sklearn.svm import SVC from sklearn.metrics import confusion_matrix from sklearn.metrics import classification_report print(__doc__) # ## lfw—Labeled Faces in the Wild Home # ##用来加载带标记的人脸数据集 该数据集是互联网上收集的知名人士的JPEG图片的集合,所有详细信息均可在官方网站上查看 # ##每张照片都集中在一张脸上。 每个通道的每个像素(RGB中的颜色)由范围0.0-1.0的浮点编码。任务称为人脸识别(或识别) # ##给予脸部照片,找到给定训练集的人的姓名 图库)。原始图像为250 x 250像素,但默认切片和调整大小参数可将其缩小为62 x 74 # ##min_faces_per_person=70:提取的数据集将仅保留至少具有min_faces_per_person不同图片的人的照片 # ## resize=0.4 ::(float,可选,默认为0.5)用于调整每张脸部图片大小的比例。 lfw_people = fetch_lfw_people(min_faces_per_person=70, resize=0.4) # ##通过images.shape返回数据集有多少:实例个数 n_samples=1288 高 h=50 宽 w=37 n_samples, h, w = lfw_people.images.shape # 特征向量矩阵:每一行是一个实例 每一列是一个特征值 (1288*1850) X = lfw_people.data # ## X的列数即特征向量的维度 n_features = X.shape[1] # ##y即每个实例对应哪个人脸;即目标分类函数的标记 class_label (0 1 2 3 4 5 6) 1288*1 # ##['Ariel Sharon' 'Colin Powell' 'Donald Rumsfeld' 'George W Bush''Gerhard Schroeder' 'Hugo Chavez' 'Tony Blair'] y = lfw_people.target target_names = lfw_people.target_names # ## 将数据拆分成训练集和测试集,拆分为两个矩阵x_train 966*1850、y_train 966*1和两个向量x_test 322*1850、y_test 322*1 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=42) # ##组成元素的个数 n_components = 150 pca = PCA(n_components=n_components, svd_solver='randomized',whiten=True).fit(X_train) # ##提取特征点eigenfaces eigenfaces = pca.components_.reshape((n_components, h, w)) # ##利用PCA对特征值进行降维 # ##降维 X_train_pca 966*150 X_test_pca 322*150 X_train_pca = pca.transform(X_train) X_test_pca = pca.transform(X_test) # ###支持向量机的参数<C/gramma>产生参数矩阵:C 对错误部分进行惩罚,gramma 取用特征值中的不同比例 param_grid = {'C': [1e3, 5e3, 1e4, 5e4, 1e5],'gamma': [0.0001, 0.0005, 0.001, 0.005, 0.01, 0.1], } # ## 'rbf' 内核系数 “balanced”模式使用y的值自动调整与输入数据中的类频率成反比的权重 clf = GridSearchCV(SVC(kernel='rbf', class_weight='balanced'), param_grid) # ##创建好的模型存在clf里 clf = clf.fit(X_train_pca, y_train) ##测试集上的模型质量的定量评估 # ##获得测试集X_test_pca的预测结果y_pred y_pred = clf.predict(X_test_pca) # ##classification_report构建一个显示主要分类指标的文本报告 rep = classification_report(y_test, y_pred, target_names=target_names) print(rep) # ##行数即有多少类,即多少人 n_classes = target_names.shape[0] # ##行列分别代表预测结果和标记结果,对角线上的数值表示预测正确的数目 conmat = confusion_matrix(y_test, y_pred, labels=range(n_classes)) print(conmat) # ###使用matplotlib进行定性评估 def plot_gallery(images, titles, h, w, n_row=3, n_col=4): plt.figure(figsize=(1.8 * n_col, 2.4 * n_row)) plt.subplots_adjust(bottom=0, left=.01, right=.99, top=.90, hspace=.35) for i in range(n_row * n_col): plt.subplot(n_row, n_col, i + 1) plt.imshow(images[i].reshape((h, w)), cmap=plt.cm.gray) plt.title(titles[i], size=12) plt.xticks(()) plt.yticks(()) # 在测试集的一部分绘制预测结果 def title(y_pred, y_test, target_names, i): pred_name = target_names[y_pred[i]].rsplit(' ', 1)[-1] true_name = target_names[y_test[i]].rsplit(' ', 1)[-1] return 'predicted: %s\ntrue: %s' % (pred_name, true_name) # ##将预测出的人名存在变量prediction_titles中 prediction_titles = [title(y_pred, y_test, target_names, i) for i in range(y_pred.shape[0])] # ##输出测试集图像,预测结果作为title;打印出图像 plot_gallery(X_test, prediction_titles, h, w) eigenface_titles = ["eigenface %d" % i for i in range(eigenfaces.shape[0])] # ##绘制提取过特征向量后的特征脸 plot_gallery(eigenfaces, eigenface_titles, h, w) plt.show()
打印出的结果为:
precision recall f1-score support Ariel Sharon 0.53 0.69 0.60 13 Colin Powell 0.74 0.85 0.79 60 Donald Rumsfeld 0.80 0.74 0.77 27 George W Bush 0.91 0.88 0.90 146 Gerhard Schroeder 0.81 0.84 0.82 25 Hugo Chavez 0.75 0.60 0.67 15 Tony Blair 0.88 0.81 0.84 36 avg / total 0.84 0.83 0.83 322 [[ 9 0 1 3 0 0 0] [ 2 51 1 5 0 1 0] [ 5 1 20 0 0 1 0] [ 1 11 1 128 3 0 2] [ 0 1 0 1 21 1 1] [ 0 2 0 2 1 9 1] [ 0 3 2 1 1 0 29]]
Figure1:
Figure2:
可用
print(clf.best_estimator_)
查看此时SVM最佳的参数搭配;
输出为:
SVC(C=1000.0, cache_size=200, class_weight='balanced', coef0=0.0, decision_function_shape=None, degree=3, gamma=0.005, kernel='rbf', max_iter=-1, probability=False, random_state=None, shrinking=True, tol=0.001, verbose=False)
即C=1000.0,gamma=0.005
相关文章推荐
- 机器学习笔记(6)——利用sklearn库实现SVM
- 机器学习笔记_ SVM
- cs229 斯坦福机器学习笔记(二)-- LR回顾与svm算法idea理解
- 机器学习笔记(3)-SVM
- 机器学习-支持向量机SVM学习笔记二
- Udacity机器学习入门笔记——支持向量机(SVM)
- 机器学习笔记(4)——支持向量机(SVM)
- 【机器学习笔记】SVM part1: 线性SVM
- 机器学习笔记——SVM
- 机器学习笔记七 - 最优间隔分类器、原始/对偶问题、svm的对偶问题
- 机器学习笔记(五) 支持向量机SVM
- [机器学习]机器学习笔记整理09- 基于SVM图像识别
- 机器学习笔记12-SVM支持向量机
- [机器学习入门] 李宏毅机器学习笔记-28 (Structured SVM part 3 ;结构化支持向量机 part 3)
- [机器学习笔记] 支持向量机SVM 和逻辑回归LR的异同
- 林轩田--机器学习技法--SVM笔记4--软间隔支持向量机(Soft-Margin Support Vector Machine)
- 机器学习-支持向量机SVM学习笔记一
- 机器学习笔记(5)——SMO优化算法(实现SVM)
- 机器学习笔记八 - SVM(Support Vector Machine,支持向量机)的剩余部分。即核技法、软间隔分类器、对SVM求解的序列最小化算法以及SVM的一些应用
- 机器学习6—SVM学习笔记