信息熵

作者: geekAppke | 来源:发表于2018-12-29 21:20 被阅读9次

机器学习是个熵降的过程
一个具体事件的信息量应该是随着其发生概率而递减的,且不能为负。

信息量

如果我们有俩个不相关的事件x和y,那么我们观察到的俩个事件
同时发生时获得的信息应该等于观察到的事件各自发生时获得的 信息之和
即:h(x,y) = h(x) + h(y)

熵就是信息量的期望

随机变量的不确定度的度量。
方法一:符号种类数量越小,信息熵越小
方法二:各符号出现的概率越不均等,信息熵越小


熵越大,数据的不确定性越高(粒子非常活跃)
熵越小,数据的不确定性越低(粒子趋向禁止)

条件熵:试卷泄题条件下,能通过的概率是多少?

条件熵

给定一个随机变量能消除另一个随机变量的不确定性

互信息
X、Y可以互换,H(X) - H(X|Y) = H(Y) - H(Y|X)

交叉熵

  • 唯心主义vs唯物主义者
  • 自己的价值观,学习真实的世界(自己心里的概率,去评估世界上真实的概率)
  • 自己的估计真实世界相比,多大的信息量
  • 如何通俗的解释交叉熵与相对熵?
交叉熵
人的估计,比真实世界更加紊乱

在图像分类的过程中,如猫狗分类,分类交叉熵定义成:
H(p, q) = p_cat * log(q_cat) - p_dog * log(q_dog)

一张图片上画了一只猫:
p_cat = 1
p_dog = 0

如果我的预测期:
q_cat = 0.2
q_dog = 0.8

H(p, q) = -1 * log(0.2) - 0 * log(0.8)
= -1 *log(0.2) = -log(0.2) = log(5)

对于分类模型的交叉熵 = -log(q_label) -->  分类的Loss函数

相对熵

理想与现实中的差距

对于一张图片上画了一只猫的真实的熵本身是多少? --- 0

H(p, q) - H(p) = D(p||q)

自然存在的熵=0

相关文章

  • 熵、条件熵、信息增益(互信息)

    信息增益 首先明确一点,信息熵是信息量的期望!期望!期望!(各种信息熵都是如此,像熵、条件熵、信息增益)熵:表示随...

  • 一文理解机器学习中的各种熵

    本文的目录组织如下: 【1】自信息【2】熵(香农熵)【3】联合熵【4】条件熵【5】互信息(信息增益)【6】 熵、联...

  • ID3与C4.5算法

    写在开始 在开始决策树算法之前,我们需要准备一些信息论的知识: 信息熵 条件熵 信息增益 交叉熵 相对熵 信息熵 ...

  • 决策树算法梳理

    信息论基础(熵 联合熵 条件熵 信息增益 基尼不纯度) 信息熵:信息熵是度量样本集合纯度常用的一种指标。在信息论中...

  • 信息熵(香农熵)、条件熵、信息增益的简单了解

    信息熵(香农熵) 1948年,香农提出了 “信息熵(entropy)”的概念信息熵是消除不确定性所需信息量的度量,...

  • 信息熵与最大熵模型

    信息熵是什么?机器学习入门:重要的概念---信息熵(Shannon’s Entropy Model)信息熵信息论中...

  • 机器学习之决策树

    信息熵: 信息熵描述信息源的不确定程度,信息熵越大、越不确定. 信息熵公式: 例子: 假设中国乒乓球队和巴西乒乓球...

  • 熵之道

    熵的定义如下: 互信息 = H(D) - H(D|A) 信息增益 = 经验熵 - 经验条件熵; 互信息和信息增益理...

  • 联合信息熵和条件信息熵

    下面这几个熵都是描述联合分布中的两个变量相互影响的关系。 联合信息熵 联合信息熵的定义如下: 条件信息熵 条件信息...

  • cross entropy交叉熵和ground truth总结

    一.cross entropy 交叉熵 交叉熵的概念得从信息熵的概念说起,我们都知道信息熵,简而言之就是信息量多少...

网友评论

    本文标题:信息熵

    本文链接:https://www.haomeiwen.com/subject/ygtmlqtx.html