KL Divergence(KL 散度)
2017-06-07 10:59
639 查看
KLDivergence理解
在数理统计(mathematical statistics)中, Kullback–Leibler divergence 使用来衡量一个概率分布和预期的概率分布偏离的程度。在信息系统(information system)中我们称其为相对熵(relative entropy)从概率分布Q到概率分布P的散度(divergence)我们用DKL(P||Q)来表示
在机器学习(machine learning)中, 如果我们用P来代替Q, 则DKL(P||Q)我们也称其为信息增益(information gain)
在贝叶斯推理(Bayesian inference)中, 我们用DKL(P||Q)来表示信息增益(information gain)。其中是Q是先验概率分布(prior probability distribution), 而P则是后验概率分布(posterior probability distribution)。
DKL(P||Q)=0 表示 P 和Q是一样的
DKL(P||Q)=1 表示 P 和Q不一样的
公式定义
P和Q是离散概率分布(discrete probability distributions), 则P和Q的散度表示为DKL(P||Q)=∑iP(i)logP(i)Q(i)
P和Q是连续随机变量(continuous random variable), 则P和Q的散度表示为
DKL(P||Q)=∫+∞−∞p(x)logp(x)q(x)dx
参考
https://en.wikipedia.org/wiki/Kullback%E2%80%93Leibler_divergence相关文章推荐
- KL Divergence(KL散度)
- 多变量高斯分布之间的KL散度(KL Divergence)
- KL散度 kl divergence
- PRML读书会第十章 Approximate Inference(近似推断,变分推断,KL散度,平均场, Mean Field )
- kl距离(散度)&l1范数区别
- 机器学习中的优化算法、加速训练机制、损失函数、KL散度和交叉熵
- KL散度(Kullback–Leibler divergence)
- 相对熵(KL散度)
- 交叉熵、相对熵及KL散度通俗理解
- KL散度(Kullback-Leibler_divergence)
- KL Divergence KL散度
- KL散度
- paper 22:kl-divergence(KL散度)实现代码
- KL散度
- 熵、交叉熵、相对熵(KL 散度)意义及其关系
- 相对熵(KL散度)
- KL散度 自信息 熵 相对熵 KL divergence entropy
- 相对熵(KL散度)
- 信息量, 信息熵, 交叉熵, KL散度
- 转--Approximate Inference(近似推断,变分推断,KL散度,平均场, Mean Field )