机器学习笔记——利用sklearn中KNN算法实现鸢尾花分类
sklearn KNN算法实现鸢尾花分类
- 编译环境
python 3.6
- sklearn
简介
本文利用sklearn中自带的数据集(鸢尾花数据集),并通过KNN算法实现了对鸢尾花的分类。
KNN算法核心思想:如果一个样本在特征空间中的K个最相似(最近临)的样本中大多数属于某个类别,则该样本也属于这个类别。
sklearn库介绍
自2007年发布以来,scikit-learn已经成为最给力的Python机器学习库(library)了。scikit-learn支持的机器学习算法包括分类,回归,降维和聚类。还有一些特征提取(extracting features)、数据处理(processing data)和模型评估(evaluating models)的模块。
安装:
pip install sklearn
鸢尾花数据集介绍
sklearn.datasets.load_iris() # 加载并返回鸢尾花数据集
名称 | 数量 |
---|---|
类别 | 3 |
特征 | 4 |
样本数量 | 150 |
每个类别数量 | 50 |
KNN算法距离计算公式
两个样本的距离也就是欧式距离,比如:样本a(a1,a2,a3)和样本b(b1,b2,b3)的距离
sklearn KNN算法API
sklearn.neighbors.KNeighborsClassifier(n_neighbors=5,algorithm='auto')
- n_neighbors:int,可选(默认= 5),k_neighbors查询默认使用的邻居数
- algorithm:{‘auto’,‘ball_tree’,‘kd_tree’,‘brute’},可选用于计算最近邻居的算法:‘ball_tree’将会使用 BallTree,‘kd_tree’将使用 KDTree。‘auto’将尝试根据传递给fit方法的值来决定最合适的算法。 (不同实现方式影响效率)
获取鸢尾花数据
from sklearn.datasets import load_iris def get_iris_data(self): iris = load_iris() iris_data = iris.data # 鸢尾花特征值(4个) iris_target = iris.target # 鸢尾花目标值(类别) return iris_data, iris_target
将数据分成测试集和训练集
from sklearn.model_selection import train_test_split # x_train 训练集特征值 x_test 测试集特征值 y_train 训练集目标值 y_test 测试集目标值 test_size=0.25 表示25%的数据用于测试 x_train, x_test, y_train, y_test = train_test_split(iris_data, iris_target, test_size=0.25)
特征工程(对特征值进行标准化处理)
特点:由于每个特征的大小,取值范围等不一样,这样会导致每个特征的权重不一样,而实际上是一样的。通过对原始数据进行变换把数据变换到均值为0,方差为1范围内。这样每个特征值的权重变得一样,以便于计算机处理。
from sklearn.preprocessing import StandardScaler std = StandardScaler() x_train = std.fit_transform(x_train) x_test = std.transform(x_test)
送入算法
from sklearn.neighbors import KNeighborsClassifier knn = KNeighborsClassifier(n_neighbors=5) # 创建一个KNN算法实例,n_neighbors默认为5,后续通过网格搜索获取最优参数 knn.fit(x_train, y_train) # 将测试集送入算法 y_predict = knn.predict(x_test) # 获取预测结果
结果展示
源代码
# -*- coding: utf-8 -*- from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split, GridSearchCV from sklearn.preprocessing import StandardScaler from sklearn.neighbors import KNeighborsClassifier class KNN(object): """ 利用KNN算法对鸢尾花进行分类 """ # 获取鸢尾花数据 三个类别(山鸢尾/0,虹膜锦葵/1,变色鸢尾/2),每个类别50个样本,每个样本四个特征值(萼片长度,萼片宽度,花瓣长度,花瓣宽度) def get_iris_data(self): iris = load_iris() iris_data = iris.data iris_target = iris.target return iris_data, iris_target def run(self): # 1.获取鸢尾花的特征值,目标值 iris_data, iris_target = self.get_iris_data() # 2.将数据分割成训练集和测试集 test_size=0.25表示将25%的数据用作测试集 x_train, x_test, y_train, y_test = train_test_split(iris_data, iris_target, test_size=0.25) # 3.特征工程(对特征值进行标准化处理) std = StandardScaler() x_train = std.fit_transform(x_train) x_test = std.transform(x_test) # 4.送入算法 knn = KNeighborsClassifier(n_neighbors=5) # 创建一个KNN算法实例,n_neighbors默认为5,后续通过网格搜索获取最优参数 knn.fit(x_train, y_train) # 将测试集送入算法 y_predict = knn.predict(x_test) # 获取预测结果 # 预测结果展示 labels = ["山鸢尾","虹膜锦葵","变色鸢尾"] for i in range(len(y_predict)): print("第%d次测试:真实值:%s\t预测值:%s"%((i+1),labels[y_predict[i]],labels[y_test[i]])) print("准确率:",knn.score(x_test, y_test)) if __name__ == '__main__': knn = KNN() knn.run()
交叉验证和网格搜索
前面介绍的n_neighbors默认为5,而实际上该用何值是需要我们调试的,手工调试比较麻烦。sklearn为我们提供了一个工具,可用于自动调试,并选择出最好的参数——交叉验证和网格搜索
交叉验证:(为了让模型更加准确可信)将所拿到的数据,分类训练和验证集。即将数据分为n份,将其中一份作为验证集,经过n组测试,每组测试时都要更换验证集。这样得到n组模型的结果,取平均值作为最终的结果。
网格搜索:通常情况下,有很多参数是需要手动指定的(如k-近邻算法中的K值),这种叫超参数。但是手动过程繁杂,所以需要对模型预设几种超参数组合。每组超参数都采用交叉验证来进行评估。最后选出最优参数组合建立模型。
from sklearn.model_selection import GridSearchCV gridCv = GridSearchCV(estimator, param_grid=None,cv=None)
- estimator:估计器对象
- param_grid:估计器参数(dict){“n_neighbors”:[1,3,5]}
- cv:指定几折交叉验证
实例
# 生成knn估计器 knn = KNeighborsClassifier() # 构造超参数值 params = {"n_neighbors":[3,5,10]} # 进行网格搜索 gridCv = GridSearchCV(knn, param_grid=params, cv=5) gridCv.fit(x_train,y_train) # 输入训练数据 # 预测准确率 print("准确率:",gridCv.score(x_test, y_test)) print("交叉验证中最好的结果:",gridCv.best_score_) print("最好的模型:", gridCv.best_estimator_)
网格搜索结果
从结果中可以看出:n_neighbors=10的时候,该模型的结果最好。
总结:
KNN算法是机器学习中最简单的一种算法,该算法具有以下特点:
优点:精度高、对异常值不敏感、无数据输入假定 缺点:计算复杂度高、空间复杂度高 使用数据范围:数值型和标称型阅读更多
- 在opencv3中实现机器学习算法之:利用最近邻算法(knn)实现手写数字分类
- 机器学习分类之结合实际应用介绍KNN算法原理以及利用sklearn进行分类预测
- 机器学习实战笔记(八):利用 AdaBoost 元算法提高分类性能
- KNN分类算法原理与Python+sklearn实现根据身高和体重对体型分类
- 机器学习实战笔记——利用KNN算法改进约会网站的配对效果
- 机器学习实战 笔记一:kNN分类算法
- 在OpenCV3中实现机器学习算法之:利用最近邻算法(knn)实现手写数字分类
- 用Python开始机器学习(4:KNN分类算法) sklearn做KNN算法 python
- Hadoop学习笔记二 - kNN算法实现用户风险分类
- 最近邻分类算法KNN实现--参考麦子学院彭亮机器学习基础4.2
- 基于qt和opencv3实现机器学习之:利用最近邻算法(knn)实现手写数字分类
- 机器学习实战(7) ——利用AdaBoost元算法提高分类性能(python实现)
- python实战:sklearn的KNN算法实现手写数据的分类
- 13,SKlearn实现KNN算法,约会网站与鸢尾花数据集
- 机器学习实战笔记-利用AdaBoost元算法提高分类性能
- 数据挖掘(Python)——利用sklearn进行数据挖掘,实现算法:svm、knn、C5.0、NaiveBayes
- 【机器学习】k-近邻算法(kNN) 学习笔记
- 机器学习KNN——Python算法实现
- 机器学习第二个算法KNN(最邻近规则分类KNN算法)
- 从零开始实现KNN分类算法