K-means、KNN学习笔记
2014-12-18 21:52
232 查看
1.K-means:聚类算法,无监督
输入:k, data
;
(1) 选择k个初始中心点,例如c[0]=data[0],…c[k-1]=data[k-1];
(2) 对于data[0]….data
, 分别与c[0]…c[k-1]比较,假定与c[i]差值最少,就标记为i;
(3) 对于所有标记为i点,重新计算c[i]={ 所有标记为i的data[j]之和}/标记为i的个数;
(4) 重复(2)(3),直到所有c[i]值的变化小于给定阈值。
优点:简单,速度快;
缺点:聚类结果与初始中心选取有关,必须提供聚类数目(k值),通常做法是,用不同K值多次聚类,取最优结果。
2.Knn:分类算法,有监督
计算步骤如下:
1)给定测试对象,计算它与训练集中的每个对象的距离
2)圈定距离最近的k个训练对象,作为测试对象的近邻
3)根据这k个近邻归属的主要类别,来对测试对象分类
优点:简单,无需估计参数,无需训练
缺点:计算量大,内存开销大
输入:k, data
;
(1) 选择k个初始中心点,例如c[0]=data[0],…c[k-1]=data[k-1];
(2) 对于data[0]….data
, 分别与c[0]…c[k-1]比较,假定与c[i]差值最少,就标记为i;
(3) 对于所有标记为i点,重新计算c[i]={ 所有标记为i的data[j]之和}/标记为i的个数;
(4) 重复(2)(3),直到所有c[i]值的变化小于给定阈值。
优点:简单,速度快;
缺点:聚类结果与初始中心选取有关,必须提供聚类数目(k值),通常做法是,用不同K值多次聚类,取最优结果。
2.Knn:分类算法,有监督
计算步骤如下:
1)给定测试对象,计算它与训练集中的每个对象的距离
2)圈定距离最近的k个训练对象,作为测试对象的近邻
3)根据这k个近邻归属的主要类别,来对测试对象分类
优点:简单,无需估计参数,无需训练
缺点:计算量大,内存开销大
相关文章推荐
- MLAPP学习笔记-KNN与K-means引发的思考
- Spark学习笔记-KNN算法实现
- Deep Learning论文笔记之(一)K-means特征学习
- Deep Learning论文笔记之(一)K-means特征学习
- Deep Learning论文笔记之(一)K-means特征学习
- 机器学习笔记-聚类算法K-means和FCM的学习小结
- K-means 学习笔记
- KNN学习笔记
- KNN 学习笔记
- 机器学习笔记--KNN算法2-实战部分
- Deep Learning论文笔记之(一)K-means特征学习
- Deep Learning论文笔记之(一)K-means特征学习
- 斯坦福NG机器学习:K-means笔记
- Deep Learning论文笔记之(一)K-means特征学习
- 统计学习笔记-KNN的缺陷
- K-means学习笔记
- 机器学习实战笔记:KNN
- Deep Learning论文笔记之(一)K-means特征学习
- Deep Learning论文笔记之(一)K-means特征学习
- Python 学习笔记(Machine Learning In Action)K-近邻算法(KNN)机器学习实战