您的位置:首页 > 编程语言 > Java开发

决策树算法---java

2015-07-21 14:13 806 查看
概念:决策树算法是一种逼近离散函数值的方法。它是一种典型的分类方法,首先对数据进行处理,利用归纳算法生成可读的规则和决策树,然后使用决策对新数据进行分析。本质上决策树是通过一系列规则对数据进行分类的过程。决策树算法构造决策树来发现数据中蕴涵的分类规则.如何构造精度高、规模小的决策树是决策树算法的核心内容。决策树构造可以分两步进行。第一步,决策树的生成:由训练样本集生成决策树的过程。一般情况下,训练样本数据集是根据实际需要有历史的、有一定综合程度的,用于数据分析处理的数据集。第二步,决策树的剪技:决策树的剪枝是对上一阶段生成的决策树进行检验、校正和修下的过程,主要是用新的样本数据集(称为测试数据集)中的数据校验决策树生成过程中产生的初步规则,将那些影响预衡准确性的分枝剪除。

例子1:

通俗来说,决策树分类的思想类似于找对象。现想象一个女孩的母亲要给这个女孩介绍男朋友,于是有了下面的对话:

女儿:多大年纪了?

母亲:26。

女儿:长的帅不帅?

母亲:挺帅的。

女儿:收入高不?

母亲:不算很高,中等情况。

女儿:是公务员不?

母亲:是,在税务局上班呢。

女儿:那好,我去见见。

这个女孩的决策过程就是典型的分类树决策。相当于通过年龄、长相、收入和是否公务员对将男人分为两个类别:见和不见。假设这个女孩对男人的要求是:30岁以下、长相中等以上并且是高收入者或中等以上收入的公务员,那么这个可以用下图表示女孩的决策逻辑(声明:此决策树纯属为了写文章而YY的产物,没有任何根据,也不代表任何女孩的择偶倾向,请各位女同胞莫质问我^_^):



上图完整表达了这个女孩决定是否见一个约会对象的策略,其中绿色节点表示判断条件,橙色节点表示决策结果,箭头表示在一个判断条件在不同情况下的决策路径,图中红色箭头表示了上面例子中女孩的决策过程。

这幅图基本可以算是一颗决策树,说它“基本可以算”是因为图中的判定条件没有量化,如收入高中低等等,还不能算是严格意义上的决策树,如果将所有条件量化,则就变成真正的决策树了。

有了上面直观的认识,我们可以正式定义决策树了:

决策树(decision tree)是一个树结构(可以是二叉树或非二叉树)。其每个非叶节点表示一个特征属性上的测试,每个分支代表这个特征属性在某个值域上的输出,而每个叶节点存放一个类别。使用决策树进行决策的过程就是从根节点开始,测试待分类项中相应的特征属性,并按照其值选择输出分支,直到到达叶子节点,将叶子节点存放的类别作为决策结果。

不同于贝叶斯算法,决策树的构造过程不依赖领域知识,它使用属性选择度量来选择将元组最好地划分成不同的类的属性。所谓决策树的构造就是进行属性选择度量确定各个特征属性之间的拓扑结构。

构造决策树的关键步骤是分裂属性。所谓分裂属性就是在某个节点处按照某一特征属性的不同划分构造不同的分支,其目标是让各个分裂子集尽可能地“纯”。尽可能“纯”就是尽量让一个分裂子集中待分类项属于同一类别。分裂属性分为三种不同的情况:

1、属性是离散值且不要求生成二叉决策树。此时用属性的每一个划分作为一个分支。

2、属性是离散值且要求生成二叉决策树。此时使用属性划分的一个子集进行测试,按照“属于此子集”和“不属于此子集”分成两个分支。

3、属性是连续值。此时确定一个值作为分裂点split_point,按照>split_point和<=split_point生成两个分支。

构造决策树的关键性内容是进行属性选择度量,属性选择度量是一种选择分裂准则,是将给定的类标记的训练集合的数据划分D“最好”地分成个体类的启发式方法,它决定了拓扑结构及分裂点split_point的选择。

属性选择度量算法有很多,一般使用自顶向下递归分治法,并采用不回溯的贪心策略。两种常用算法:


ID3算法:

信息论知识中我们直到,期望信息越小,信息增益越大,从而纯度越高。所以ID3算法的核心思想就是以信息增益度量属性选择,选择分裂后信息增益最大的属性进行分裂。下面先定义几个要用到的概念。

设D为用类别对训练元组进行的划分,则D的(entropy)表示为:



其中pi表示第i个类别在整个训练元组中出现的概率,可以用属于此类别元素的数量除以训练元组元素总数量作为估计。熵的实际意义表示是D中元组的类标号所需要的平均信息量。

现在我们假设将训练元组D按属性A进行划分,则A对D划分的期望信息为:



而信息增益即为两者的差值:



例子2:

ID3算法就是在每次需要分裂时,计算每个属性的增益率,然后选择增益率最大的属性进行分裂。下面我们继续用SNS社区中不真实账号检测的例子说明如何使用ID3算法构造决策树。为了简单起见,我们假设训练集合包含10个元素:



其中s、m和l分别表示小、中和大。

设L、F、H和R表示日志密度、好友密度、是否使用真实头像和账号是否真实,下面计算各属性的信息增益。







因此日志密度的信息增益是0.276。

用同样方法得到H和F的信息增益分别为0.033和0.553。

因为F具有最大的信息增益,所以第一次分裂选择F为分裂属性,分裂后的结果如下图表示:



在上图的基础上,再递归使用这个方法计算子节点的分裂属性,最终就可以得到整个决策树。

上面为了简便,将特征属性离散化了,其实日志密度和好友密度都是连续的属性。对于特征属性为连续值,可以如此使用ID3算法:

先将D中元素按照特征属性排序,则每两个相邻元素的中间点可以看做潜在分裂点,从第一个潜在分裂点开始,分裂D并计算两个集合的期望信息,具有最小期望信息的点称为这个属性的最佳分裂点,其信息期望作为此属性的信息期望。


C4.5算法:

ID3算法存在一个问题,就是偏向于多值属性,例如,如果存在唯一标识属性ID,则ID3会选择它作为分裂属性,这样虽然使得划分充分纯净,但这种划分对分类几乎毫无用处。ID3的后继算法C4.5使用增益率(gain
ratio)的信息增益扩充,试图克服这个偏倚。

C4.5算法首先定义了“分裂信息”,其定义可以表示成:



其中各符号意义与ID3算法相同,然后,增益率被定义为:



C4.5选择具有最大增益率的属性作为分裂属性,其具体应用与ID3类似,不再赘述。

例子3:

有了以上的知识,下面我们来实际操作一个

汽车有6个属性,每个属性都有几种类别,根据这6个属性来判断汽车的性价比Classvalue如何,ClassValues有以下几种情况unacc,acc, good,vgood

buying(
vhigh,high,med,low)

maint(vhigh,high,med,low)

doors( 2,3,4,5more)

persons(2,4,more)

lug_boot( small ,med,big)

safety( low,med,high)

ClassValues( unacc,acc, good,vgood)

由于代码比较多,在这里就不贴出来了。最后一行有下载地址

运行结果:

【决策树】

决策树结构如下:

safety

med-->persons

2-->unacc

4-->maint

vhigh-->buying

vhigh-->unacc

high-->unacc

med-->lug_boot

small-->unacc

med-->doors

2-->unacc

3-->unacc

4-->acc

5more-->acc

big-->acc

low-->lug_boot

small-->unacc

med-->unacc

big-->acc

high-->lug_boot

small-->unacc

med-->doors

2-->unacc

3-->unacc

4-->buying

vhigh-->unacc

high-->acc

med-->acc

5more-->buying

vhigh-->unacc

high-->acc

med-->acc

big-->buying

vhigh-->unacc

high-->acc

med-->acc

med-->lug_boot

small-->buying

vhigh-->unacc

high-->unacc

med-->acc

med-->doors

2-->buying

vhigh-->unacc

high-->unacc

med-->acc

3-->buying

vhigh-->unacc

high-->unacc

med-->acc

4-->acc

5more-->acc

big-->acc

low-->buying

vhigh-->lug_boot

small-->unacc

med-->doors

2-->unacc

3-->unacc

4-->acc

5more-->acc

big-->acc

high-->lug_boot

small-->unacc

med-->doors

2-->unacc

3-->unacc

4-->acc

5more-->acc

big-->acc

med-->lug_boot

small-->acc

med-->doors

2-->acc

3-->acc

4-->good

5more-->good

big-->good

more-->lug_boot

small-->buying

vhigh-->unacc

high-->unacc

med-->maint

vhigh-->unacc

high-->unacc

med-->doors

2-->unacc

3-->acc

4-->acc

5more-->acc

low-->doors

2-->unacc

3-->acc

4-->acc

5more-->acc

low-->unacc

med-->maint

vhigh-->buying

vhigh-->unacc

high-->unacc

med-->doors

2-->unacc

3-->acc

4-->acc

5more-->acc

low-->doors

2-->unacc

3-->acc

high-->buying

vhigh-->unacc

high-->doors

2-->unacc

3-->acc

4-->acc

5more-->acc

med-->doors

2-->unacc

3-->acc

4-->acc

5more-->acc

med-->doors

2-->buying

vhigh-->unacc

high-->unacc

med-->acc

3-->acc

4-->acc

5more-->acc

low-->buying

vhigh-->doors

2-->unacc

3-->acc

4-->acc

5more-->acc

high-->doors

2-->unacc

3-->acc

4-->acc

5more-->acc

med-->doors

2-->acc

3-->good

4-->good

5more-->good

big-->maint

vhigh-->buying

vhigh-->unacc

high-->unacc

med-->acc

low-->acc

high-->buying

vhigh-->unacc

high-->acc

med-->acc

med-->acc

low-->buying

vhigh-->acc

high-->acc

med-->good

high-->persons

2-->unacc

4-->maint

vhigh-->buying

vhigh-->unacc

high-->unacc

med-->acc

low-->acc

high-->buying

vhigh-->unacc

high-->acc

med-->acc

med-->buying

vhigh-->acc

high-->acc

med-->lug_boot

small-->acc

med-->doors

2-->acc

3-->acc

4-->vgood

5more-->vgood

big-->vgood

low-->buying

vhigh-->acc

high-->acc

med-->lug_boot

small-->good

med-->doors

2-->good

3-->good

4-->vgood

5more-->vgood

big-->vgood

more-->maint

vhigh-->buying

vhigh-->unacc

high-->unacc

med-->doors

2-->lug_boot

small-->unacc

med-->acc

big-->acc

3-->acc

4-->acc

5more-->acc

low-->lug_boot

small-->doors

2-->unacc

3-->acc

med-->acc

big-->acc

high-->buying

vhigh-->unacc

high-->doors

2-->lug_boot

small-->unacc

med-->acc

big-->acc

3-->acc

4-->acc

5more-->acc

med-->doors

2-->lug_boot

small-->unacc

med-->acc

big-->acc

3-->acc

4-->acc

5more-->acc

med-->buying

vhigh-->doors

2-->lug_boot

small-->unacc

med-->acc

big-->acc

3-->acc

4-->acc

5more-->acc

high-->doors

2-->lug_boot

small-->unacc

med-->acc

big-->acc

3-->acc

4-->acc

5more-->acc

med-->lug_boot

small-->doors

2-->unacc

3-->acc

4-->acc

5more-->acc

med-->doors

2-->acc

3-->vgood

4-->vgood

5more-->vgood

big-->vgood

low-->buying

vhigh-->doors

2-->lug_boot

small-->unacc

med-->acc

big-->acc

3-->acc

4-->acc

5more-->acc

high-->doors

2-->lug_boot

small-->unacc

med-->acc

big-->acc

3-->acc

4-->acc

5more-->acc

med-->lug_boot

small-->doors

2-->unacc

3-->good

4-->good

5more-->good

med-->doors

2-->good

3-->vgood

4-->vgood

5more-->vgood

big-->vgood

low-->unacc

决策树的成功率为: 61.80372%

相比贝叶斯算法,决策树的优势在于构造过程不需要任何领域知识或参数设置,因此在实际应用中,对于探测式的知识发现,决策树更加适用。

代码下载:

决策树代码---java
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: