美文网首页AI
怎么理解信息熵

怎么理解信息熵

作者: sarai_c7eb | 来源:发表于2019-08-26 23:57 被阅读0次

信息熵的定义很简单,怎么理解和运用信息熵还是有点头疼;


首先,我们看一下定义:
信息熵:
有离散随机变量及其分布:
P(X=x_i)=p_i,\quad i=1,2,\cdots,n
则随机变量X的熵定义为:
H(x)=-\sum_{i=1}^n p_i \log p_i
其中\logbase通常为2;此时熵的单位为bits


信息量:
随机变量X=x_0的信息量为:
I(x_0)=-\log (p(x0)),\quad 0\leq p(x_0)\leq 1

离散随机变量的信息量
利用python作图源代码如下:
import matplotlib.pyplot as plt
import pandas as pd
import numpy as np

x=np.linspace(0,1,50)
y=-np.log2(x)

plt.figure()
plt.plot(x,y)
plt.show()

从图中可以直观的得到:

  • 概率越小,信息量越大;
    • 如有人告诉你说公鸡下蛋了,那真是大大的信息量,到底出了神马事呢,你需要收集很多证据证词,蹲点观察等等,所以说信息量大;
  • 概率越大,信息量越小;
    • 如有人告诉你太阳每天都从东边升起,那真是索然无味,你让他滚一边去,因为没有什么信息量;

根据信息量来看信息熵:

那么从信息量的定义来看信息熵,我们发现信息熵是信息量的期望;

信息量大的变量,概率值很小;信息量小的变量,概率值很大;
讨论公鸡下蛋和太阳从东边升起好像都没多大意思,还是关注这样事件比较好,如股票涨跌,油价涨跌等;
信息熵就是这样的度量:不极端的分布信息熵大,极端的分布信息熵小;用比较官方的话来说就是:信息熵是表示随机变量不确定的度量,是对所有可能发生事件信息量的期望。

信息熵计算举例
  1. 对随机变量个数相同的分布,概率越集中于平均分布,信息熵越大(纵向比较);
  2. 随机变量个数越多,则信息熵越大(横向比较2vs3);

信息熵的最大值出现在所有变量服从均匀分布的情况下。H(X)=\log(n)

从上的讨论可以看出,离散随机变量的分布越杂乱,越不确定,则对应的信息熵就越大。
信息熵单位为bits,也就意味着需要用更多的bits来表示这段信息。
如变量X有4个状态:
如果4个状态是均匀分布的,那么我们计算信息熵为H(X)=2 bits,意味着我们至少需要2bits来表达和传输这4个状态;
如果4个状态的概率为\{1/2,1/4,1/8,1/8\},则计算H(X)=1.75 bits,此时可以利用哈夫曼编码来表达和传输这4个状态[1]


1:详解机器学习中的熵、条件熵、相对熵和交叉熵
2:《统计学习方法》--李航


  1. 参考1《详解机器学习中的熵、条件熵、相对熵和交叉熵》

相关文章

  • 怎么理解信息熵

    信息熵的定义很简单,怎么理解和运用信息熵还是有点头疼; 首先,我们看一下定义:信息熵:有离散随机变量及其分布:则随...

  • 各种熵,条件熵,KL

    熵、条件熵、交叉熵、相对熵 参考《统计学习方法》李航 通俗理解信息熵 - 忆臻的文章 - 知乎 https://z...

  • 机器学习相关的数学知识

    知识点理解: 信息量->熵->相对熵(KL散度)->交叉熵->分类的loss 信息量:I(x0)=−log(p(x...

  • 信息熵

    介绍 信息的基本作用就是消除人们对事物的不确定性。信息熵,可以理解为信息的不确定程度,信息的不确定程度越大,信息熵...

  • [精] 信息熵的研究

    一、熵的概念 为了理解信息熵,让我们先简单了解一下什么是熵 熵,英文单词是 Entropy,是热力学中表征物质状态...

  • 熵、条件熵、信息增益(互信息)

    信息增益 首先明确一点,信息熵是信息量的期望!期望!期望!(各种信息熵都是如此,像熵、条件熵、信息增益)熵:表示随...

  • 为什么耳机总会凌乱——生命以负熵为生

    人活着就是在对抗熵增定律,生命以负熵为生。 ——薛定谔《生命是什么》 怎么理解熵增呢? 非生命:比如物质总是向着熵...

  • 一文理解机器学习中的各种熵

    本文的目录组织如下: 【1】自信息【2】熵(香农熵)【3】联合熵【4】条件熵【5】互信息(信息增益)【6】 熵、联...

  • ID3与C4.5算法

    写在开始 在开始决策树算法之前,我们需要准备一些信息论的知识: 信息熵 条件熵 信息增益 交叉熵 相对熵 信息熵 ...

  • 决策树算法

    一、通俗理解熵和基尼不纯度 1.信息熵 熵度量事物的不确定性,越不确定的事物,它的熵就越大。随机变量的熵的表达式如...

网友评论

    本文标题:怎么理解信息熵

    本文链接:https://www.haomeiwen.com/subject/kysjectx.html