作者: 只为此心无垠 | 来源:发表于2018-05-05 16:23 被阅读4次

一、看文章

“熵”不起:从熵、最大熵原理到最大熵模型(一)
“熵”不起:从熵、最大熵原理到最大熵模型(二)
“熵”不起:从熵、最大熵原理到最大熵模型(三)
信息熵与最大熵模型

二、那么多概念,怎么办

熵,条件熵,联合熵,交叉熵,KL散度(相对熵)
老实说看到怎么概念,立马想放弃,数学就是不停用高深概念打败你,让你退缩。所以你只能个个击破
5个概念,只需要掌握3个,其他几个可以由这三个推导和理解,那么问题化简了,所以我们要了解哪三个?是熵,联合熵,交叉熵

  • 1.熵

不多说了,看上述文章

  • 2.联合熵

看第一篇文章,可得条件熵 = 联合熵 - 熵

  • 3.交叉熵

1、熵的本质的另一种解释:最短平均编码长度;    
【本质含义:编码方案完美时,最短平均编码长度的是多少】

2、交叉熵,则可以这样理解:
使用了“估算”的编码后,得到的平均编码长度(可能不是最短的)            
p是真实概率分布,q是你以为的概率分布(可能不一致);           
 你以 q 去编码,编码方案 log(1/q_i)可能不是最优的;            
于是,平均编码长度 = ∑ p_i *log(1/q_i),就是交叉熵;            
只有在估算的分布 q 完全正确时,平均编码长度才是最短的
[交叉熵](https://www.zhihu.com/question/41252833)
KL散度 = 交叉熵 - 熵

非常不明白,为什么数学书本为什么要把KL散度的公式写成这样?特意搞晕我们吗?显示自己高深?


把公式拆开,也就是KL散度公式该有的形式,立马懂了,谢谢,就到此为止
KL散度公式该有的形式

相关文章

  • 一、看文章 “熵”不起:从熵、最大熵原理到最大熵模型(一)“熵”不起:从熵、最大熵原理到最大熵模型(二)“熵”不起...

  • 机器学习-面试总结

    决策树问题 1)各种熵的计算熵、联合熵、条件熵、交叉熵、KL散度(相对熵) 熵用于衡量不确定性,所以均分的时候熵最...

  • 熵增原理简史(一)

    前 言 熵增原理简史,从熵的概念、熵的研究史、熵增原理、宇宙熵增和广义熵增原理五方面阐述。特别是后两块内容,对熵...

  • 一文理解机器学习中的各种熵

    本文的目录组织如下: 【1】自信息【2】熵(香农熵)【3】联合熵【4】条件熵【5】互信息(信息增益)【6】 熵、联...

  • 机器学习中的熵、条件熵、相对熵(KL散度)和交叉熵

    GitHub简书CSDN 该文章转载自详解机器学习中的熵、条件熵、相对熵和交叉熵 1、信息熵 (informati...

  • 各种熵,条件熵,KL

    熵、条件熵、交叉熵、相对熵 参考《统计学习方法》李航 通俗理解信息熵 - 忆臻的文章 - 知乎 https://z...

  • 【原创|发展】 华为其实一直在做一件事

    关键词:热力学定律 熵增熵减 负熵熵死 华为的冬天 创新发展 耗散模型 在商言熵 自我...

  • 熵、条件熵、信息增益(互信息)

    信息增益 首先明确一点,信息熵是信息量的期望!期望!期望!(各种信息熵都是如此,像熵、条件熵、信息增益)熵:表示随...

  • 机器学习算法系列(三):最大熵模型

    一、 熵与条件熵 熵度量的是事物的不确定性。越不确定的事物,它的熵就越大。具体的,随机变量熵的表达式为: 且熵满足...

  • 信息熵相关的定义定理

    1. 信息熵 // todo 2. 条件熵 // todo 3. 联合熵 // todo 4. 相对熵KL距离 5...

网友评论

    本文标题:

    本文链接:https://www.haomeiwen.com/subject/jlzsrftx.html