KL Divergence KL散度
2015-03-09 22:38
260 查看
在概率论或信息论中,KL散度( Kullback–Leibler divergence),又称相对熵(relative entropy),是描述两个概率分布P和Q差异的一种方法。它是非对称的,这意味着D(P||Q) ≠ D(Q||P)。特别的,在信息论中,D(P||Q)表示当用概率分布Q来拟合真实分布P时,产生的信息损耗,其中P表示真实分布,Q表示P的拟合分布。
有人将KL散度称为KL距离,但事实上,KL散度并不满足距离的概念,应为:1)KL散度不是对称的;2)KL散度不满足三角不等式。
相对熵(relative entropy)又称为KL散度(Kullback–Leibler divergence,简称KLD),信息散度(information divergence),信息增益(information gain)。
KL散度是两个**概率分布**P和Q差别的非对称性的度量。
对一个离散随机变量的两个概率分布P和Q来说,他们的KL散度定义为:
![](http://img.blog.csdn.net/20150309223701584)
对于连续的随机变量,定义类似:
![](http://img.blog.csdn.net/20150309223703722)
对于KL散度新的应用参考Clustering Uncertain Data Based on Probability Distribution Similarity
有人将KL散度称为KL距离,但事实上,KL散度并不满足距离的概念,应为:1)KL散度不是对称的;2)KL散度不满足三角不等式。
相对熵(relative entropy)又称为KL散度(Kullback–Leibler divergence,简称KLD),信息散度(information divergence),信息增益(information gain)。
KL散度是两个**概率分布**P和Q差别的非对称性的度量。
对一个离散随机变量的两个概率分布P和Q来说,他们的KL散度定义为:
对于连续的随机变量,定义类似:
对于KL散度新的应用参考Clustering Uncertain Data Based on Probability Distribution Similarity
相关文章推荐
- paper 22:kl-divergence(KL散度)实现代码
- KL散度 自信息 熵 相对熵 KL divergence entropy
- KL散度(Kullback-Leibler_divergence)
- KL散度(Kullback-Leibler_divergence)
- KL散度(Kullback-Leibler_divergence)
- PRML读书会第十章 Approximate Inference(近似推断,变分推断,KL散度,平均场, Mean Field )
- 相对熵(KL散度)
- 相对熵(KL散度)
- 交叉熵、相对熵及KL散度通俗理解
- [DeepLearning]如何使用对比散度(How to use Contrastive Divergence)
- kl距离(散度)&l1范数区别
- 机器学习中的优化算法、加速训练机制、损失函数、KL散度和交叉熵
- KL Divergence(KL 散度)
- 信息论-Shannon entropy-Kullback-Leibler (KL) divergence-cross-entropy
- KL Divergence(KL散度)
- KL散度
- 相对熵(KL散度)
- 相对熵(KL散度)
- 为什么KL-divergence 可以用来衡量两个概率分布的不相似性?
- 熵、交叉熵、相对熵(KL 散度)意义及其关系