李航统计学习方法决策树的特征选择例5.2python代码
2018-01-18 11:03
429 查看
自己写一直报错一直报错。。。然后还是参考了机器学习实战上关于数据集划分的部分,所以这篇主要为了记录一下实战上的好方法:还可以这样分?!
先上图:
下面直接上代码:
# -*- coding:utf-8 -*-
#@author:xinxinzhang
from math import log
def loadDataSet():
dataSet = [['青年', '否', '否', '一般', '否'],
['青年', '否', '否', '好', '否'],
['青年', '是', '否', '好', '是'],
['青年', '是', '是', '一般', '是'],
['青年', '否', '否', '一般', '否'],
['中年', '否', '否', '一般', '否'],
['中年', '否', '否', '好', '否'],
['中年', '是', '是', '好', '是'],
['中年', '否', '是', '非常好', '是'],
['中年', '否', '是', '非常好', '是'],
['老年', '否', '是', '非常好', '是'],
['老年', '否', '是', '好', '是'],
['老年', '是', '否', '好', '是'],
['老年', '是', '否', '非常好', '是'],
['老年', '否', '否', '一般', '否']]
label = ['年龄', '有工作', '有自己的房子', '信贷情况']
return dataSet, label
def shannoEnt(dataSet):
labelCount={}
numOfData=len(dataSet)
for data in dataSet:
classify=data[-1]
if classify not in labelCount.keys():
labelCount[classify]=1
else:labelCount[classify]+=1
H=0.0
for value in labelCount.values():
pi=value/numOfData
H-=pi*log(pi,2)
return H
def chooseBestFeatureSplit(dataSet):
HD=shannoEnt(dataSet)
bestGain=0.0
bestFeature=-1 #为啥初始化为1,因为特征从0开始扫描,所以如果没找到最优特征,就会返回-1
for i in range(len(dataSet[0])-1):
feat=[data[i] for data in dataSet]
prob=0.0
for value in set(feat):
subData=splitData(dataSet,i,value)
prob+=(len(subData)/len(dataSet))*shannoEnt(subData)
Gain=HD-prob
if Gain>bestGain:
bestGain=Gain
bestFeature=i
print('最优特征是:',label[bestFeature])
return bestFeature
def splitData(dataSet,axis,value): #机器学习实战上关于数据集的划分
retDataSet=[]
for data in dataSet:
if data[axis]==value:
reducedData=data[:axis]
reducedData.extend(data[axis+1:])
retDataSet.append(reducedData)
return retDataSet
dataSet,label=loadDataSet()
chooseBestFeatureSplit(dataSet)
先上图:
下面直接上代码:
# -*- coding:utf-8 -*-
#@author:xinxinzhang
from math import log
def loadDataSet():
dataSet = [['青年', '否', '否', '一般', '否'],
['青年', '否', '否', '好', '否'],
['青年', '是', '否', '好', '是'],
['青年', '是', '是', '一般', '是'],
['青年', '否', '否', '一般', '否'],
['中年', '否', '否', '一般', '否'],
['中年', '否', '否', '好', '否'],
['中年', '是', '是', '好', '是'],
['中年', '否', '是', '非常好', '是'],
['中年', '否', '是', '非常好', '是'],
['老年', '否', '是', '非常好', '是'],
['老年', '否', '是', '好', '是'],
['老年', '是', '否', '好', '是'],
['老年', '是', '否', '非常好', '是'],
['老年', '否', '否', '一般', '否']]
label = ['年龄', '有工作', '有自己的房子', '信贷情况']
return dataSet, label
def shannoEnt(dataSet):
labelCount={}
numOfData=len(dataSet)
for data in dataSet:
classify=data[-1]
if classify not in labelCount.keys():
labelCount[classify]=1
else:labelCount[classify]+=1
H=0.0
for value in labelCount.values():
pi=value/numOfData
H-=pi*log(pi,2)
return H
def chooseBestFeatureSplit(dataSet):
HD=shannoEnt(dataSet)
bestGain=0.0
bestFeature=-1 #为啥初始化为1,因为特征从0开始扫描,所以如果没找到最优特征,就会返回-1
for i in range(len(dataSet[0])-1):
feat=[data[i] for data in dataSet]
prob=0.0
for value in set(feat):
subData=splitData(dataSet,i,value)
prob+=(len(subData)/len(dataSet))*shannoEnt(subData)
Gain=HD-prob
if Gain>bestGain:
bestGain=Gain
bestFeature=i
print('最优特征是:',label[bestFeature])
return bestFeature
def splitData(dataSet,axis,value): #机器学习实战上关于数据集的划分
retDataSet=[]
for data in dataSet:
if data[axis]==value:
reducedData=data[:axis]
reducedData.extend(data[axis+1:])
retDataSet.append(reducedData)
return retDataSet
dataSet,label=loadDataSet()
chooseBestFeatureSplit(dataSet)
相关文章推荐
- 统计学习方法第五章决策树的选择最优特征划分例5-1-5.2代码实践
- 李航 统计学习方法 例5.4 使用CART算法生成分类决策树
- 李航 统计学习 例5,1 根据信息增益选择最优特征
- 统计学习方法-李航(第5章 决策树笔记)
- 统计学习方法 李航---第5章 决策树
- 李航 统计学习方法 第五章 决策树 课后 习题 答案
- 统计学习方法 李航---第5章 决策树
- 李航统计学习方法决策树id3例5.3
- 统计学习方法第五章决策树的ID3算法代码实践 例5.3
- 《统计学习方法,李航》:5、决策树
- 李航统计学习方法--感知机
- 李航—统计学习方法第一章课后答案
- 《统计学习方法》读书笔记-----决策树:特征选择
- 第一章统计学习方法概论_李航
- 统计学习方法第七章的序列最小最优化算法SMO代码实践
- 《统计学习方法,李航》:8、提升方法Boosting(1)
- 统计学习方法 李航---第1章 统计学习方法概论
- 统计学习方法 第5章 决策树(1)
- 统计学习方法第11章条件随机场(CRF)的Viterbi算法例题11.3代码实践
- 统计学习方法——模型的选择与评估(过拟合、泛化能力)