自然语言和机器学习笔记
2013-06-19 10:30
204 查看
信息熵(Information Entropy)
信息熵是衡量分布的混乱程度或分散程度的一种度量。分布越分散(或者分布越平均),信息熵就越大。分布越有序(或者说分布越集中),信息熵就越小。
计算给定的样本集X的信息熵的公式:
Entropy(X) = ∑-pi log2pi
信息熵越大表示样本集S分类越分散,信息熵越小则表明样本集X分类越集中。当S中n个分类出现的概率一样大时(都是1/n),信息熵取最大值log2(n)。当X只有一个分类时,信息熵取最小值0。
参考资料:
to
be
continued
信息熵是衡量分布的混乱程度或分散程度的一种度量。分布越分散(或者分布越平均),信息熵就越大。分布越有序(或者说分布越集中),信息熵就越小。
计算给定的样本集X的信息熵的公式:
Entropy(X) = ∑-pi log2pi
信息熵越大表示样本集S分类越分散,信息熵越小则表明样本集X分类越集中。当S中n个分类出现的概率一样大时(都是1/n),信息熵取最大值log2(n)。当X只有一个分类时,信息熵取最小值0。
参考资料:
to
be
continued
相关文章推荐
- R语言机器学习笔记——垃圾邮件分类
- R语言学习笔记-机器学习1-3章
- 自然语言期末复习笔记-Formal Grammars Of English
- 自然语言期末复习笔记—Morphological Analysis
- 自然语言期末复习笔记—神经网络语言模型NPLM
- 自然语言期末复习笔记—最大熵马尔科夫模型MEMM
- 机器学习和深度学习笔记(Matlab语言实现)
- 【年度技术观点合集】计算机视觉,自然语言,机器学习…看看顶级科学家们怎么说
- 本文转自“我爱自然语言处理”:www.52nlp.cn ----立委随笔:机器学习和自然语言处理
- R语言与机器学习中的回归方法学习笔记
- 机器学习笔记之R语言基础篇4
- 自然语言16.1_Python自然语言处理学习笔记之信息提取步骤&分块(chunking)
- 笔记:自然语言的计算机处理
- 自然语言情感倾向分析笔记
- 机器学习笔记之R语言基础篇3(概率分布1)
- 自然语言期末复习笔记—最大熵模型
- 统计自然语言学习笔记(Manning):第1章
- 机器学习笔记之R语言基础篇1
- 《JavaScript 语言精髓与编程实践》第二章笔记
- 渥瑞达 Linux Unix下C语言软件开发视频教程 笔记4