您的位置:首页 > 其它

KL Divergence(KL 散度)

2017-06-07 10:59 639 查看

KLDivergence理解

在数理统计(mathematical statistics)中, Kullback–Leibler divergence 使用来衡量一个概率分布和预期的概率分布偏离的程度。在信息系统(information system)中我们称其为相对熵(relative entropy)

从概率分布Q到概率分布P的散度(divergence)我们用DKL(P||Q)来表示

在机器学习(machine learning)中, 如果我们用P来代替Q, 则DKL(P||Q)我们也称其为信息增益(information gain)

在贝叶斯推理(Bayesian inference)中, 我们用DKL(P||Q)来表示信息增益(information gain)。其中是Q是先验概率分布(prior probability distribution), 而P则是后验概率分布(posterior probability distribution)。

DKL(P||Q)=0 表示 P 和Q是一样的

DKL(P||Q)=1 表示 P 和Q不一样的

公式定义

P和Q是离散概率分布(discrete probability distributions), 则P和Q的散度表示为

DKL(P||Q)=∑iP(i)logP(i)Q(i)

P和Q是连续随机变量(continuous random variable), 则P和Q的散度表示为

DKL(P||Q)=∫+∞−∞p(x)logp(x)q(x)dx

参考

https://en.wikipedia.org/wiki/Kullback%E2%80%93Leibler_divergence
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  KL Divergence KL散度