您的位置:首页 > 编程语言 > Python开发

k近邻(KNN)的Python实现

2017-07-05 12:38 363 查看

K近邻算法:

复杂度:训练时间复杂度为0,如果训练集中文档总数为N特征维度为D则暴力做法分类时间复杂度为O(DN)。可以用K-D Tree或Ball-Tree优化成O(Dlog(N))。

优点:精度高、对异常值不敏感、无数据输入假定。

缺点:计算复杂度高、空间复杂度高。

K近邻算法原理:

输入一个新的没有标签的数据后,将新数据的每个特征值与训练样本集中数据的对应的特征进行比较,选择训练样本数据集中前K个最相似的数据,最后,选择K个最相似数据中出现次数最多的分类,作为新数据的分类。

k值设定:

k太小,分类结果易受噪声点影响;k太大,近邻中又可能包含太多的其它类别的点。(对距离加权,可以降低k值设定的影响)
k值通常是采用交叉检验来确定(以k=1为基准)
经验规则:k一般取3,上限为训练样本数的平方根。

kNN.py:

import numpy as np

# 使用KNN分类
def kNNClassify(newInput, dataSet, labels, k):
numSamples = len(dataSet)

# 计算欧拉距离
diff = np.tile(newInput, (numSamples, 1)) - dataSet
squaredDiff = diff ** 2
squaredDist = np.sum(squaredDiff, axis=1)
distance = squaredDist ** 0.5

# 距离排序
sortedDistIndices = np.argsort(distance)

# 计算前k个出现的次数
classCount = {}
for i in range(k):
voteLabel = labels[sortedDistIndices[i]]
classCount[voteLabel] = classCount.get(voteLabel, 0) + 1

# 找出最大的返回
maxCount = 0
for key, value in classCount.items():
if value > maxCount:
maxCount = value
maxIndex = key

return maxIndex

def main():
# 创建数据集
def createDataSet():
group = [[1.0, 0.9], [1.0, 1.0], [0.1, 0.2], [0.0, 0.1]]
labels = ['A', 'A', 'B', 'B']
return group, labels

dataSet, labels = createDataSet()

testX = [1.2, 1.0]
outputLabel = kNNClassify(testX, dataSet, labels, 3)
print("测试数据:", testX, "被分类到: ", outputLabel)

testX = [0.1, 0.3]
outputLabel = kNNClassify(testX, dataSet, labels, 3)
print("测试数据:", testX, "被分类到: ", outputLabel)

if __name__ == '__main__':
exit(main())


输出结果:

测试数据: [1.2, 1.0] 被分类到:  A
测试数据: [0.1, 0.3] 被分类到:  B
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  kNN Python 机器学习