2.1 信源的数学模型及分类
- 离散信源:信源输出的都是单个符号,符号集的取值是有限的或可数的
- 连续信源:输出信号的符号集是取值连续的,或取值是实数集
-
离散平稳信源
- 信源输出的随机序列
中,每个随机变量
都是取值离散的随机变量,即每个随机变量
的可能取值是有限的或可数的。
- 而且随机矢量
的各维概率分布都与时间起点无关,也就是说任意两个不同时刻随机矢量
的各维概率分布都相同。
- 信源输出的随机序列
-
连续平稳信源
- 若将信源的输出表示成
维随机矢量
来描述,其中每一个随机分量
都是取值为连续的连续性随机变量(即
的可能取值是不可数的无限值),
- 并且满足随机矢量
的各维概率密度函数与时间起点无关,也就是在任意两个不同时刻随机矢量
的各维概率密度函数都相同
- 若将信源的输出表示成
-
离散无记忆信源的扩展信源
-
N次扩展信源的信源空间
-
信源
有
个符号,每一个符号
均来自信源空间
,所以一个消息(
)中的
个符号均来自
中的具体值。这个关系表明扩展信源的每个符号取值与同一个单符号信源空间。
-
服气:一件简单的事非得说的谁也不明白
-
-
有记忆信源:随机变量
之间是相互依赖的。
-
马尔可夫信源:
- m阶马尔可夫信源就是每次发出的符号只与前m个符号有关,与更前面的符号无关。
-
时齐马尔可夫信源:
- 马尔可夫信源,且与时间起点无关
-
随机波形信源:时间与取值都是连续的
离散信源的信息熵
- 若一随机事件的概率为
,它的自信息的数学定义为
- 如果以2为底,取得的信息量单位为比特(bit),如果以e为底,称为奈特(nat),如果以10为底,称为哈特(Hart)。
- 条件自信息 定义为
信息熵
- 定义为自信息的数学期望为信源客观上的平均信息量,成为信源的信息熵
-
表示信源发出的任何一个消息状态所携带的平均信息量,也等于在无噪声条件下,接收者收到一个消息状态所获得的平均信息量。
- 信息熵并不反映从信源中平均能获多少信息量,而是从平均的意义上,代表信源所客观存在着发送信息的能力。
信息熵的基本性质
- 非负性
对称性(假的,不对没有这个)- 确定性,概率为一就一定会发生
- 连续性:当有微小波动时,波动趋于0时,信息熵无影响
- 若信源的取值增多时,若这些取值的概率很小,则信息熵不变
- 虽然概率很小的事件出现后,给予收信方较多的信息。但总体来考虑,因为这种概率很小几乎不会出现,所以它在熵的计算中占的比重很小。
- 这是熵的总体平均性的体现
- 扩展性:拆分而已
- 可加性:任何复杂的问题都可以分布解决
- 递增性:拆分后其信息熵增加
- 极值性:任何离散信息源,不论它取何种概率分布,所得的信息熵一定不会大于等概率分布时的信息熵。
- 上凸性:因为当函数具有上凸性时,其值域中一定存在极大值

网友评论