一、如何度量信息
信息量是对信息的度量,香农不仅对信息作了定性描述,还进行了定量分析。
信源发出的信息常常是随机的,具有不确定性。如果信源中某一消息的不确定性越大,一旦发生,并为收信者接到,消除的不确定性就越大,获得的信息也就越大。同时事件发生的不确定性与事件发生的概率有关,概率越小,不确定性就越大。
二、 离散集信息量的性质
某事件X发生所提供的信息量I(x),应该是该事件发生的先验概率p(x)的函数:
且应满足一下四点:
1、 I(x)应该是事件概率p(x)的单调递减函数;
2、信息量应该具有可加性:对于两个独立事件,其信息量应等于各自信息量之和;
3、当p(x)=1时,I(x)=0:表示确定事件发生得不到任何信息;
4、当p(x)=0时,I(x)=∞:表示不可能发生的事件一旦发生,信息量将无穷大。
综合上诉条件,在概率上已经严格证明了

其中p(x)为消息的先验概率
信息量单位:若这里对数底数取2,则单位为bit,由于在计算机上是二进制,我们一般都采用bit,
例1、信源消息X={0,1,2}的概率模型如下:
X_i | 0 | 1 | 2 |
---|---|---|---|
p(x_i) | 1/3 | 1/6 | 1/2 |
则该信源各消息的信息量分别为:
X_i | 0 | 1 | 2 |
---|---|---|---|
p(x_i) | 1/3 | 1/6 | 1/2 |
I(x) | log3 | log6 | log2 |
单位比特
信息量代表两种含义
- 1、事件X发生以前,I(x)表示事件X发生的不确定性;
- 2、当事件X发生以后,I(x)表示事件X所提供的信息量(在无噪声的情况下)
例2、假设一根电线上串联8个灯泡X1、X2...X8,这8个灯泡损坏的可能性等概率的,假设只有一个灯泡损坏,用万能表去测量,获得足够的信息量,才能获知和确定哪个灯泡X_i损坏。下面就来看我们最少需要获得多少信息量才能判断出。
解:第一次测试从中间测量,这样八个灯泡分成两部分,并可以判断出在哪一边,这样挑出坏灯泡概率1/4

第二次在剩下4个灯泡中间测量获得的信息量:

第三次在两个灯泡中间测量获得的信息量:

信息熵
信息熵---是整个系统的不确定性的统计特性即整个信源信息量的统计平均值
例3 有两个信源X和Y:
X_i | 0 | 1 |
---|---|---|
p(x_i) | 0.5 | 0.5 |
y_i | 0 | 1 |
---|---|---|
p(y_i) | 0.99 | 0.01 |
在现实中,能找到很多类似的模型,我们想知道这两个信源本质的区别在哪里?
平均信息量----熵的定义
设X是一个集合(即信息系统如信源或信道),其概率模型为{X_i,P(X_i)},则定义系统X的平均信息量-----熵为:

熵的单位是比特/符号。H(X)就是唯一确定X中任一事件的平均信息量。反应了一个系统平均复杂度。
熵的几条性质
(1)对称性:熵只和分布有关,不关心某一具体事件对应哪个概率
(2)非负性:H(X)>=0
(3)确定性:若离散事件是确定事件,则H(X)=0
(4)极值性----最大离散熵定理:设|X|为信源消息的个数,

计算例3两个信源X和Y的熵

信源X熵明显要远远大于信源Y的熵,信源X发出信息不确定性很大,二信源Y不确定信很小
条件信息量
在已知事件yi的条件下,事件xi发的概率为条件概率p(xi|yi),那么条件信息量定义为

联合信息量
事件xi,yi同时发生的概率是p(xiyi),那么联合信息量为

联合熵

条件熵

................
网友评论