熵之道

作者: Mattina | 来源:发表于2019-02-24 11:22 被阅读19次

熵的定义如下:

熵.png
条件熵的定义如下:
条件熵.png
H(D)和H(D|A)若从训练集得到,则分别称之为经验熵经验条件熵

互信息 = H(D) - H(D|A)

信息增益 = 经验熵 - 经验条件熵;

互信息信息增益理论上是等价的,只不过信息增益是从训练集中计算得到,是一种经验值,互信息是一种理想值。

交叉熵 与 相对熵/KL散度(摘自github imhuay

  • 定义 P 对 QKL 散度(Kullback-Leibler divergence):

KL 散度在信息论中度量的是哪个直观量?
  • 在离散型变量的情况下, KL 散度衡量的是:当我们使用一种被设计成能够使得概率分布 Q 产生的消息的长度最小的编码,发送包含由概率分布 P 产生的符号的消息时,所需要的额外信息量。

KL散度的性质

  • 非负;KL 散度为 0 当且仅当P 和 Q 在离散型变量的情况下是相同的分布,或者在连续型变量的情况下是“几乎处处”相同的
  • 不对称;D_p(q) != D_q(p)

交叉熵(cross-entropy):

信息量,信息熵,交叉熵,KL散度和互信息(信息增益) - CSDN博客
交叉熵 与 KL 散度的关系

  • 针对 Q 最小化交叉熵等价于最小化 P 对 Q 的 KL 散度,因为 Q 并不参与被省略的那一项。
  • 最大似然估计中,最小化 KL 散度其实就是在最小化分布之间的交叉熵。

    《深度学习》 ch5.5 - 最大似然估计

相关文章

  • 熵之道

    熵的定义如下: 互信息 = H(D) - H(D|A) 信息增益 = 经验熵 - 经验条件熵; 互信息和信息增益理...

  • 一、看文章 “熵”不起:从熵、最大熵原理到最大熵模型(一)“熵”不起:从熵、最大熵原理到最大熵模型(二)“熵”不起...

  • 机器学习-面试总结

    决策树问题 1)各种熵的计算熵、联合熵、条件熵、交叉熵、KL散度(相对熵) 熵用于衡量不确定性,所以均分的时候熵最...

  • 熵增原理简史(一)

    前 言 熵增原理简史,从熵的概念、熵的研究史、熵增原理、宇宙熵增和广义熵增原理五方面阐述。特别是后两块内容,对熵...

  • 见贤思齐

    文|蓝熵 子曰:参乎!吾道一以贯之。曾子曰:唯。子出,门人问曰:何谓也?曾子曰:夫子之道,忠恕而已矣! ...

  • 一文理解机器学习中的各种熵

    本文的目录组织如下: 【1】自信息【2】熵(香农熵)【3】联合熵【4】条件熵【5】互信息(信息增益)【6】 熵、联...

  • 机器学习中的熵、条件熵、相对熵(KL散度)和交叉熵

    GitHub简书CSDN 该文章转载自详解机器学习中的熵、条件熵、相对熵和交叉熵 1、信息熵 (informati...

  • 各种熵,条件熵,KL

    熵、条件熵、交叉熵、相对熵 参考《统计学习方法》李航 通俗理解信息熵 - 忆臻的文章 - 知乎 https://z...

  • 【原创|发展】 华为其实一直在做一件事

    关键词:热力学定律 熵增熵减 负熵熵死 华为的冬天 创新发展 耗散模型 在商言熵 自我...

  • 哲学与信仰

    文|蓝熵 子曰:父在观其志,父没观其行,三年无改于父之道,可谓孝矣。 这句如果纯按字面意思理解,往...

网友评论

    本文标题:熵之道

    本文链接:https://www.haomeiwen.com/subject/vvpvyqtx.html