Weka初步二(聚类算法)
2016-01-08 15:04
232 查看
上次我介绍了分类器的使用方法,这次我来介绍一下聚类算法。聚类算法在数据挖掘里面被称之为无监督学习(unsupervised learning),这是与分类算法(supervised learning)相对的。在它们两者之间还一种叫做半监督学习(semi-supervised learning)这个我会在后面的文章中重点介绍。所谓无监督学习就是在预先不知道样本类别的情况下,由聚类算法来判别样本的类别的一种学习方法。
聚类算法的一般过程分为:
1. 读入需预测样本
2. 初始化聚类算法(并设置参数)
3. 使用聚类算法对样本进行聚类
4. 打印聚类结果
我们来看下面的一个实例:
package com.csdn;
import java.io.File;
import weka.clusterers.SimpleKMeans;
import weka.core.DistanceFunction;
import weka.core.EuclideanDistance;
import weka.core.Instances;
import weka.core.converters.ArffLoader;
public class SimpleCluster {
/**
* @param args
*/
public static void main(String[]
args) {
// TODO Auto-generated method stub
Instances ins = null;
Instances tempIns = null;
SimpleKMeans KM = null;
DistanceFunction disFun = null;
try{
/*
* 1.读入样本
*/
File file= new File("C://Program Files//Weka-3-6//data//contact-lenses.arff");
ArffLoader loader = new ArffLoader();
loader.setFile(file);
ins = loader.getDataSet();
/*
* 2.初始化聚类器
* 在3.6版本可以通过setDistanceFunction(DistanceFunction
df)
* 函数设置聚类算法内部的距离计算方式
* 而在3.5版本里面默认的采用了欧几里得距离
*/
KM = new SimpleKMeans();
//设置聚类要得到的类别数量
KM.setNumClusters(2);
/*
* 3.使用聚类算法对样本进行聚类
*/
KM.buildClusterer(ins);
/*
* 4.打印聚类结果
*/
tempIns = KM.getClusterCentroids();
System.out.println("CentroIds: " +
tempIns);
}catch(Exception e){
e.printStackTrace();
}
}
}
我们可以看到读入样本的过程是与上一节的一样的方法。在构建聚类器时也是通过现有的类来实现的。现在weka的聚类算法有11种之多,我所了解的也就是一两种算法而已。SimpleKMean是最简单的KMeans算法,因为聚类算法的核心是通过距离来得到类别(类间相异,类内相似),所以需要有一个计算距离的公式常见的就是欧几里得距离了。在3.5版本中weka没有考虑其它距离公式的情况,将SimpleKMean计算距离的方法默认为欧几里得距离。在3.6中就weka提供了setDistanceFunction(DistanceFunction
df)的接口可以方便我们设置自己的距离计算方法。
有一点要注意,在上面的聚类过程中,我们将样本的类别属性也放在里面了,这样做是不符合常识的,因为样本类别属性包含了大量的类别信息,可以诱导聚类算法得到很好的效果。但是这与我们的初衷是相背离的,所以在聚类之前我们要记住删除掉类别属性。
在第四步打印聚类结果是一个很简单的信息,里面包括了聚类的几个中心点。在我们写程序时,可以使用ClusterEvaluation类来打印更多的信息。
聚类算法的一般过程分为:
1. 读入需预测样本
2. 初始化聚类算法(并设置参数)
3. 使用聚类算法对样本进行聚类
4. 打印聚类结果
我们来看下面的一个实例:
package com.csdn;
import java.io.File;
import weka.clusterers.SimpleKMeans;
import weka.core.DistanceFunction;
import weka.core.EuclideanDistance;
import weka.core.Instances;
import weka.core.converters.ArffLoader;
public class SimpleCluster {
/**
* @param args
*/
public static void main(String[]
args) {
// TODO Auto-generated method stub
Instances ins = null;
Instances tempIns = null;
SimpleKMeans KM = null;
DistanceFunction disFun = null;
try{
/*
* 1.读入样本
*/
File file= new File("C://Program Files//Weka-3-6//data//contact-lenses.arff");
ArffLoader loader = new ArffLoader();
loader.setFile(file);
ins = loader.getDataSet();
/*
* 2.初始化聚类器
* 在3.6版本可以通过setDistanceFunction(DistanceFunction
df)
* 函数设置聚类算法内部的距离计算方式
* 而在3.5版本里面默认的采用了欧几里得距离
*/
KM = new SimpleKMeans();
//设置聚类要得到的类别数量
KM.setNumClusters(2);
/*
* 3.使用聚类算法对样本进行聚类
*/
KM.buildClusterer(ins);
/*
* 4.打印聚类结果
*/
tempIns = KM.getClusterCentroids();
System.out.println("CentroIds: " +
tempIns);
}catch(Exception e){
e.printStackTrace();
}
}
}
我们可以看到读入样本的过程是与上一节的一样的方法。在构建聚类器时也是通过现有的类来实现的。现在weka的聚类算法有11种之多,我所了解的也就是一两种算法而已。SimpleKMean是最简单的KMeans算法,因为聚类算法的核心是通过距离来得到类别(类间相异,类内相似),所以需要有一个计算距离的公式常见的就是欧几里得距离了。在3.5版本中weka没有考虑其它距离公式的情况,将SimpleKMean计算距离的方法默认为欧几里得距离。在3.6中就weka提供了setDistanceFunction(DistanceFunction
df)的接口可以方便我们设置自己的距离计算方法。
有一点要注意,在上面的聚类过程中,我们将样本的类别属性也放在里面了,这样做是不符合常识的,因为样本类别属性包含了大量的类别信息,可以诱导聚类算法得到很好的效果。但是这与我们的初衷是相背离的,所以在聚类之前我们要记住删除掉类别属性。
在第四步打印聚类结果是一个很简单的信息,里面包括了聚类的几个中心点。在我们写程序时,可以使用ClusterEvaluation类来打印更多的信息。
相关文章推荐
- Weka初步一
- STM8S学习01——SPI&IIC
- HTML元素的显示优先级
- js--获取和设置css属性
- 颜如玉——2016年第一周
- Android 触摸及手势操作GestureDetector
- 链表逆序
- ThinkPHP重写规则优化URL及Rewrite规则详细说明
- 1.3.4 ERROR PAGES(错误页面)
- Ubuntu下关于Transmission daemon的安装与配置
- 华为技术——查找子字符串出现次数,并从原字符串中删除
- mysql博客
- Android版本和API Level对应关系及输出本机的版本信息
- Android推送注册失败问题排查
- WEKA使用教程(经典教程转载)
- Android Fragment详解(一):概括
- Linked List Cycle
- Websocket实现连接持久化
- eclipse在tomcat服务器运行jsp时提示以下错误
- CDI技术第八步 动态CDI BEAN