机器学习——决策树与随机森林
2017-08-28 15:55
225 查看
机器学习——决策树与随机森林
1.决策树的主要元素:根节点、内部节点、叶节点。其中根节点聚集了所有的样本,内部节点表示根据某个特征进行分类,叶节点根据节点内样本数最多的那一类作为输出。 2.决策树的主要处理方式:根据信息增益、信息增益率或者基尼系数这三个指标来选取局部最优的分类特征。 3.决策树由于是递归过程,所以会出现过拟合现象。需要通过剪枝来使得模型的泛化能力增强。 4.决策树主要形式有分类决策树、回归决策树,针对因变量是分类型变量还是连续型变量。
决策树的主要三个算法,主要的区别在于选择特征的标准。
1. ID3算法 (信息增益)
2. C4,5算法 (信息增益率)
3. CART算法 (基尼系数)
信息增益的理论知识:
1.信息熵
2.条件熵
3.互信息
ID3就是通过对所有特征进行信息增益(互信息)的比较,选择使得信息增益最大的变量作为分类特征。
以上是理论指标的定义,在实际样本中,有经验熵,经验条件熵的定义。
经验熵:设样本为D,样本中有K类,每一类的样本量为Ck。
经验熵
经验条件熵
根据特征进行分类后,特征有n个水平,将样本分为n个部分,其中每一个部分属于K类的样本有Cik个。
ID3
经验熵与条件经验熵做差就得到了信息增益(互信息),根据信息增益的大小选择特征作为分类。并且递归的处理下去就会得到一整颗决策树。
C4,5
C4,5算法与ID3不同之处在于,算法使用了信息增益率代替了信息增益,信息增益偏向于选择属性很多的作为特征,会使得决策树变得很庞大,导致过拟合。当使用信息增益率后,可以有效限制选择属性过多的特征来建立决策树,一定程度上防止过拟合。当A属性过多时,
CART
CART算法简称为分类与回归树,选择特征的标准通过基尼系数实现。
分类误差率的实现
import numpy as np from matplotlib import pyplot as plt p=np.linspace(0.001,1,100,endpoint=False) gini=2*p*(1-p) ent=-(p*np.log2(p)+(1-p)*np.log2(1-p))/2 error=1-np.max(np.vstack((p,1-p)),0) plt.plot(p,gini,'r-',label='Gini') plt.plot(p,ent,'b-',label='Entropy') plt.plot(p,error,'g-',label='Error') plt.legend(loc='upper right') plt.show()
鸢尾花数据集python通过决策树实践
import numpy as np from sklearn.tree import DecisionTreeClassifier from sklearn.model_selection import train_test_split from sklearn import datasets from sklearn.pipeline import Pipeline #读取数据,划分训练集和测试集 iris=datasets.load_iris() x=iris.data[:,:2] y=iris.target x_train, x_test, y_train, y_test = train_test_split(x, y, train_size=0.7, random_state=1) #模型训练 # model=DecisionTreeClassifier(max_depth=3) # model=model.fit(x_train,y_train) model = Pipeline([('ss',StandarScaler()),('DCT',DecisionTreeClassifier(criterion='entropy', max_depth=3) ]) model = model.fit(x_train,y_train) y_test_hat=model.predict(x_test) res=y_test==y_test_hat acc=np.mean(res) print '训练集上的正确率是%.2f%%'%(acc*100)
相关文章推荐
- 机器学习 —— 决策树及其集成算法(Bagging、随机森林、Boosting)
- [机器学习]决策树和随机森林
- 机器学习-采用正态贝叶斯分类器、决策树、随机森林对wine数据集分类
- 关于机器学习中决策树的相关问题也谈随机森林
- 【机器学习】决策树与随机森林
- 机器学习实战--笔记3(决策树与随机森林)
- 机器学习-采用正态贝叶斯分类器、决策树、随机森林对abalone数据集分类
- 机器学习 —— 决策树及其集成算法(Bagging、随机森林、Boosting)
- 机器学习总结(四)——随机森林与GBDT(梯度提升决策树)
- 机器学习实战笔记3(决策树与随机森林)
- 七月机器学习之决策树随机森林和adaboost11
- 机器学习利器——决策树和随机森林
- 机器学习之决策树(Decision Tree)&随机森林(Random forest)
- 机器学习之决策树和随机森林及代码示例
- 机器学习利器——决策树和随机森林
- 看懂论文的机器学习基本知识(五)--随机森林、决策树
- 机器学习(五)-决策树和随机森林
- 机器学习之决策树和随机森林
- 机器学习-决策树和随机森林
- 机器学习总结8_从决策树到随机森林