您的位置:首页 > 其它

机器学习(二)k-近邻分类算法(kNN)

2016-08-21 19:43 411 查看
1、k-近邻算法概述
k-近邻算法采用测量不同特征值之间的距离的方法进行分类。
优点:精度高、对异常值不敏感、无数据输入假定;
缺点:计算复杂度高、空间复杂度高;
适用数据范围:数值型和标称型。
2、工作原理:
存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最邻近)的分类标签。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处,通常k是不大于20的整数。最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。
3、流程
*收集数据
*准备数据:距离计算所需要的数值,最好是结构化的数据格式。
*分析数据:
*训练算法:此步骤不适用于k-近邻算法
*测试算法:计算错误率
*使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近邻算法判定输入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处理。
Python实现:
# -*- coding: utf-8 -*-
'''
Created on Sun Aug 21 18:44:27 2016
kNN: k Nearest Neighbors
Input:
inX:用于分类的输入向量
dataSet:输入的训练样本集
labels:标签向量
k:表示用于选择最近邻居的数目
标签向量的元素数目和矩阵dataSet的行数相同
Output: 分类结果
@author: GnahzNib
'''

# 导入科学计算包numpy
from numpy import *
# 导入运输符模块
import operator
# 导入listdir()函数(获得目录中的相关内容的介绍)
from os import listdir

# k-邻近算法实现
def classify0(inX, dataSet, labels, k):
# 已知分类的数据集(训练集)的行数
dataSetSize = dataSet.shape[0]
# 1、计算欧式距离
# tile函数将输入点拓展成与训练集相同维数的矩阵,再计算欧氏距离
diffMat = tile(inX, (dataSetSize,1)) - dataSet # 样本与训练集的差值矩阵
sqDiffMat = diffMat**2 # 差值矩阵平方
sqDistances = sqDiffMat.sum(axis=1) # 计算每一行上元素的和
distances = sqDistances**0.5 # 开方得到欧拉距离矩阵
sortedDistIndicies = distances.argsort() # 按distances中元素进行升序排序后得到的对应下标的列表
# 2、选择距离最小的k个点
classCount={}
for i in range(k):
voteIlabel = labels[sortedDistIndicies[i]]
classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
# 按classCount字典的第2个元素(即类别出现的次数)从大到小排序
sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True)
return sortedClassCount[0][0]
4、示例:
1)使用Python导入数据
In [12]: from numpy import *
In [13]: import operator
In [14]: def createDataSet():
...: group = array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]])
...: labels = ['A', 'A', 'B', 'B']
...: return group, labels
...:
In [15]: import kNN
In [16]: group,labels = kNN.createDataSet()
In [17]: group
Out[17]:
array([[ 1. , 1.1],
[ 1. , 1. ],
[ 0. , 0. ],
[ 0. , 0.1]])
In [18]: labels
Out[18]: ['A', 'A', 'B', 'B']
2)实施kNN算法
In [19]: kNN.classify0([0, 0], group, labels, 3)
Out[19]: 'B'
In [20]: kNN.classify0([1.5, 0.5], group, labels, 3)
Out[20]: 'A'
3)测试分类器
分类器错误率=分类器给出错误结果的次数 / 测试执行的总数
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: