结合数据挖掘分类谈谈对信息熵的理解
2013-07-19 16:58
288 查看
信息是个很抽象的概念。人们常常说信息很多,或者信息较少,但却很难说清楚信息到底有多少。比如一本五十万字的中文书到底有多少信息量。直到1948年,香农提出了“信息熵”的概念,才解决了对信息的量化度量问题。
公式为:H(x)=E[I(xi)]=E[ log(2,1/p(xi)) ]=-∑p(xi)log(2,p(xi)) (i=1,2,..n)该值越大表示信息量越大
在一个系统中,该系统越混乱,那么就越难把它搞清楚,需要的信息量就越大,信息熵就越大
回到数据挖掘中用决策树进行分类中,在分类的之前,我们需要建立一个决策树,在建立决策树的时候属性的选择是一个非常关键的问题,我们选择的属性的标准是让划分尽量纯(落在给定划分中的元祖都属于相同类的越多,那么就越纯),结合上面我们可以推理出如果按照某个属性划分后,每个该属性属性值所对应的元组越统一(元组所属的类别越统一),那么我们这个属性的选择就越符合我们的需求。和信息熵结合,就是选择该属性之后,所有属性值对应的分类的信息熵之和越小,那么我们元组分类所需要的平均信息越少,该属性就越符合我们的要求
公式为:H(x)=E[I(xi)]=E[ log(2,1/p(xi)) ]=-∑p(xi)log(2,p(xi)) (i=1,2,..n)该值越大表示信息量越大
在一个系统中,该系统越混乱,那么就越难把它搞清楚,需要的信息量就越大,信息熵就越大
回到数据挖掘中用决策树进行分类中,在分类的之前,我们需要建立一个决策树,在建立决策树的时候属性的选择是一个非常关键的问题,我们选择的属性的标准是让划分尽量纯(落在给定划分中的元祖都属于相同类的越多,那么就越纯),结合上面我们可以推理出如果按照某个属性划分后,每个该属性属性值所对应的元组越统一(元组所属的类别越统一),那么我们这个属性的选择就越符合我们的需求。和信息熵结合,就是选择该属性之后,所有属性值对应的分类的信息熵之和越小,那么我们元组分类所需要的平均信息越少,该属性就越符合我们的要求
相关文章推荐
- 以性别预测为例,谈谈数据挖掘中的分类问题
- 以性别预测为例,谈谈数据挖掘中的分类问题
- 【CSDN学院视频】以性别预测为例,谈谈数据挖掘中常见的分类算法
- 结合这两年的项目经历谈谈对公安行业数据挖掘背后的意义
- 数据挖掘分类和聚类的理解
- [数据挖掘] - 聚类算法:K-means算法理解及SparkCore实现
- 【python数据挖掘课程】二十.KNN最近邻分类算法分析详解及平衡秤TXT数据集读取
- 数据挖掘中的分类和聚类的区别
- 数据挖掘系列-朴素贝叶斯分类算法原理与实践
- 特征选择的策略--数据相关性(皮尔逊系数)与gini或者信息熵的的结合
- # 数据挖掘算法 ## 18大经典DM算法 18大数据挖掘的经典算法以及代码实现,涉及到了决策分类,聚类,链接挖掘,关联挖掘,模式挖掘等等方面,后面都是相应算法的博文链接,希望能够帮助大家学。 目前
- 数据挖掘分类技术
- [数据挖掘课程笔记]基于规则的分类-顺序覆盖算法(sequential covering algorithm)
- 数据挖掘算法分类别示例
- 数据挖掘——分类——决策树算法之ID3与C4.5原理解析
- 数据挖掘 --- Python实现KNN算法项目 - 水果分类
- 数据挖掘—LDA,PCA特征提取降维与SVM多分类在人脸识别中的应用-数据集ORL
- 数据挖掘系列(6)决策树分类算法
- 数据挖掘-各种分类算法的优缺点
- 数据挖掘---分类算法之支持向量机SVM