特征向量的归一化方法
2013-11-28 20:35
302 查看
在使用KNN(k-Nearest Neighbours)根据特征值进行分类的时候,如果所有变量位于同一值域范围内,利用这些变量一次性算出距离值是有意义的。不过,假设我们引入一个对最终的分类结果产生影响的新变量(不同类型的变量 Heterogenous Varibales)。与我们目前使用过的变量不同(假设之前的变量的取值均介于0和100之间),这些变量可能会达到1000。很显然,和原先的变量相比,这个新的变量对距离计算所产生的影响更为显著——其影响将超过任何其他变量对距离计算所构成的影响,这意味着,在计算距离的过程中其他变量根本就未被考虑在内。
(摘自《Programming Collective Intelligence》)
所以在使用KNN之前需要对所有的变量进行归一化处理。下面介绍几种归一化的方法:
1、线性函数转换,表达式如下:
y=(x-MinValue)/(MaxValue-MinValue)
2、对数函数转换,表达式如下:
y=log10 (x)
3、反余切函数转换 ,表达式如下:
y=arctan(x)*2/PI
4、减去均值,乘以方差:
y=(x-means)/ variance
(摘自《Programming Collective Intelligence》)
所以在使用KNN之前需要对所有的变量进行归一化处理。下面介绍几种归一化的方法:
1、线性函数转换,表达式如下:
y=(x-MinValue)/(MaxValue-MinValue)
2、对数函数转换,表达式如下:
y=log10 (x)
3、反余切函数转换 ,表达式如下:
y=arctan(x)*2/PI
4、减去均值,乘以方差:
y=(x-means)/ variance
相关文章推荐
- 分类问题 特征向量的归一化方法
- 机器学习中特征归一化的方法
- 向量归一化几种方法
- PCA(协方差矩阵和奇异值分解两种方法求特征值特征向量)
- python 中自己写方法 计算向量长度 / 实现向量归一化
- 三种特征归一化的方法之SumNormalizer
- 特征归一化方法
- Matlab最快的矩阵列向量归一化方法
- 归一化用于文本分类中的特征向量计算
- 特征向量相似度和距离计算方法
- 文本特征抽取的向量空间模型(VSM)和TF/IDF方法
- 基于一种改进的提取形状特征向量方法,实现图像检索
- Jacobi 方法计算特征值特征向量
- 文本特征提取方法研究
- Jacobi法确定对称矩阵特征值与特征向量
- 图像特征特点及其常用的特征提取与匹配方法
- §2 方阵的特征值与特征向量
- 特征选择--联合方法的特征提取
- 行人检测 特征 典型方法
- 不同特征值对应的特征向量