美文网首页
信息量、熵、KL散度和交叉熵

信息量、熵、KL散度和交叉熵

作者: BinJiang | 来源:发表于2019-11-26 16:01 被阅读0次

信息量:

X是一个离散型随机变量,概率分布函数p(x)=Pr(X=x),事件X=x0的信息量为:

  • 概率大的事情携带信息量小
  • 概率小的事情携带信息量大



对于某件事情,可能有n种可能,每一种可能都带有一个概率p(xi),这样就可以考虑用一个量来计算这件事情的信息量。这个很好理解,直接把这个事情可能发生的各种事件信息量加起来就可以了。

KL散度(相对熵)

相对熵又称KL散度,如果我们对于同一个随机变量x有两个单独的概率分布P(x)和Q(x),我们可以使用KL散度来衡量这两个分布的差异。

  • 用P(x)来描述样本的真实分布,用Q(x)来描述样本的预测分布。举例:P(X=猫) = [1,0,0], Q(X=猫) = [0.7,0.1,0.2]


  • D_KL值越小,表示P、Q分布越接近

交叉熵

KL散度是交叉熵和信息量公式的组合

交叉熵的公式:


  • 在机器学习中,评估标签和预测结果之间的差距就是用交叉熵,因为对于某一个事件信息量一般是固定的,故在优化过程中,只关注交叉熵就可以了。

参考链接:
https://blog.csdn.net/tsyccnh/article/details/79163834

相关文章

  • 交叉熵与KL散度

    老遇到交叉熵作为损失函数的情况,于是总结一下 KL散度 交叉熵从KL散度(相对熵)中引出,KL散度(Kullbac...

  • 机器学习相关的数学知识

    知识点理解: 信息量->熵->相对熵(KL散度)->交叉熵->分类的loss 信息量:I(x0)=−log(p(x...

  • 面试

    最大似然 交叉熵 KL散度 相对熵 Information bottleneck

  • KL散度其实就是相对熵

    一直以为KL散度是什么新奇玩意,但是其实还是旧瓶装新酒 机器学习中的熵、条件熵、相对熵(KL散度)和交叉熵_冉茂松...

  • 信息量、熵、KL散度和交叉熵

    信息量: X是一个离散型随机变量,概率分布函数p(x)=Pr(X=x),事件X=x0的信息量为: 概率大的事情携带...

  • 信息量,熵,KL散度,交叉熵

    REFER:陈远. 信息论与编码(第三版). 电子工业出版社. p11徐彬. 实战深度学习算法. 电子工业出版社....

  • 机器学习-面试总结

    决策树问题 1)各种熵的计算熵、联合熵、条件熵、交叉熵、KL散度(相对熵) 熵用于衡量不确定性,所以均分的时候熵最...

  • 信息熵+交叉熵+KL散度

    熵的本质是香农信息量,被用于描述一个系统中的不确定性。 在决策树算法中的信息熵: 在反向传播算法中衡量两个分布和差...

  • 信息熵相关知识总结

    前言 学习决策树时会接触到一些信息熵,条件熵和信息增益的知识,此外还有互信息,相对熵,交叉熵和互信息,KL散度等等...

  • 信息熵/相对熵/交叉熵

    信息熵 信息熵也被称为熵,用来表示所有信息量的期望。 其中X是一个离散型随机变量。 相对熵 相对熵即KL散度。如果...

网友评论

      本文标题:信息量、熵、KL散度和交叉熵

      本文链接:https://www.haomeiwen.com/subject/wyzewctx.html