您的位置:首页 > 其它

第六周作业报告

2017-04-09 13:50 211 查看

第六周作业报告

1、CART算法

GINI指数:

是一种不等性度量;

通常用来度量收入不平衡,可以用来度量任何不均匀分布;

是介于0~1之间的数,0-完全相等,1-完全不相等;

总体内包含的类别越杂乱,GINI指数就越大

对于一个数据集T,其
Gini
计算方式为

gini(T)=1−∑j=1np2j

进而引出
Ginigain


Ginis(T)=∑i=1nNiNgini(Ti)

其中i表示特征第i个取值

CART分析步骤

从根节点t=1开始,从所有可能候选S集合中搜索使不纯性降低最大的划分S*,然后,使用划分S*将节点1(t=1)划分成两个节点t=2和t=3

在t=2和t=3上分别重复划分搜索过程。

基尼不纯度指标

在CART算法中,

基尼不纯度表示一个随机选中的样本在子集中被分错的可能性。基尼不纯度为这个样本被选中的概率乘以它被分错的概率。当一个节点中所有样本都是一个类时,基尼不纯度为零。

2、ID3,C4.5

信息熵:

在概率论中,信息熵给了我们一种度量不确定性的方式,是用来衡量随机变量不确定性的,熵就是信息的期望值。若待分类的事物可能划分在N类中,分别是x1,x2,……,xn,每一种取到的概率分别是P1,P2,……,Pn,那么X的熵就定义为:

H(X)=−∑i=1npilogpi

条件熵:

假设有随机变量(X,Y),其联合概率分布为:P(X=xi,Y=yi)=pij,i=1,2,⋯,n;j=1,2,⋯,m

则条件熵(H(Y∣X))表示在已知随机变量X的条件下随机变量Y的不确定性,其定义为X在给定条件下Y的条件概率分布的熵对X的数学期望:

H(Y|X)=∑i=1npiH(Y|X=xi)

信息增益:

表示得知特征x的信息后是的y的不确定性减少的程度,定义为:

g(D,A)=H(D)−H(D|A)

ID3

可以归纳为以下几点:

1. 使用所有没有使用的属性并计算与之相关的样本熵值

2. 选取其中熵值最小的属性

3. 生成包含该属性的节点

C4.5

ID3算法存在一个问题,就是偏向于多值属性,例如,如果存在唯一标识属性ID,则ID3会选择它作为分裂属性,这样虽然使得划分充分纯净,但这种划分对分类几乎毫无用处。ID3的后继算法C4.5使用增益率(gain ratio)的信息增益扩充,试图克服这个偏倚。

C4.5
首先定义了
分裂信息
,定义为:

SplitInfoA(D)=−∑i=1u|Dj||D|log2(|Dj||D|)

C4.5选择具有最大增益率的属性作为分裂属性,其具体应用与ID3类似

3、C5.0

C5.0算法是在C4.5算法的基础上提出的

与C4.5区别

都是通过计算信息增益率来划分结点,两者的共同

C5.0算法通过构造多个C4.5算法,是一种boosting算法。准确率更高

C5.0算法运行速度快,可以出来例如,C4.5需要9个小时找到森林的规则集,但C5.0在73秒完成了任务。

C5.0运行内存小。C4.5需要超过3 GB.(工作不会对早些时候完成32位系统),但C5.0需要少于200 mb。

C5.0算法,可以人为的加入客观规则

C5.0可以处理较大的数据集,特征可以是:数字,时间,日期,名义字段

C5.0可以加入惩罚项,(也就是第2条中boosting过程)

参考

数据挖掘十大经典算法–CART: 分类与回归树

CART算法学习及实现

ID3java实现

机器学习经典算法详解及Python实现–CART分类决策树、回归树和模型树
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: