美文网首页散文简友广场
信息论中的熵和惊异

信息论中的熵和惊异

作者: Cache_wood | 来源:发表于2021-10-07 08:48 被阅读0次

@[toc]

信息论基础

信息论涉及编码、解码、发送以及尽可能简洁地处理信息或数据。

信息论的核心思想是量化数据中的信息内容,在信息论中,该数值被称为分布PP的(entropy)。可以通过以下方程得到:
H(P) = \sum_j -P(j)logP(j)
信息论的基本定理之一指出,为了对从分布p中随机抽取的数据进行编码,我们至少需要H[P]纳特(nat)对其进行编码。“纳特”相当于位,但是对数底为e而不是2。因此,一个纳特是\frac{1}{log(2)}≈1.44位。

惊异

想象一下,我们有一个要压缩的数据流。如果我们总是很容易预测下一个数据,那么这个数据很容易压缩!当数据易于预测,也就易于压缩。但是,如果我们不能完全预测每一个事件,那么我们有时可能会感到惊异。当我们赋予一个事件较低的概率时,我们的惊异会更大。克劳德·香农决定用log\frac{1}{P(j)} = -logP(j)来量化一个人的惊异(surprisal)。在观察一个事件j,并赋予它(主观)概率P(j)

熵是当分配的概率真正匹配数据生成过程时的预期惊异(expected surprisal)。

重新审视交叉熵

如果熵是知道真实概率的人所经历的惊异程度,那么 交叉熵P到Q,记为H(P,Q),是主观概率为Q的观察者在看到根据概率P实际生成的数据时的预期惊异。当P=Q时,交叉熵达到最低。在这种情况下,从P到Q的交叉熵是H(P,P)=H(P)

简而言之,我们可以从两方面来考虑交叉熵分类目标:

(i)最大化观测数据的似然;

(ii)最小化传达标签所需的惊异。

相关文章

  • 信息论中的熵和惊异

    @[toc] 信息论基础 信息论涉及编码、解码、发送以及尽可能简洁地处理信息或数据。 熵 信息论的核心思想是量化数...

  • 决策树算法梳理

    信息论基础(熵 联合熵 条件熵 信息增益 基尼不纯度) 信息熵:信息熵是度量样本集合纯度常用的一种指标。在信息论中...

  • 什么是信息熵?

    1948 年,伟大的信息论之父香农(Shannon)将热力学中熵的概念引入到了信息论中,提出了“信息熵”这一概念。...

  • 信息熵与最大熵模型

    信息熵是什么?机器学习入门:重要的概念---信息熵(Shannon’s Entropy Model)信息熵信息论中...

  • 交叉熵——我们如何评估差异

    前言 机器学习的本质是信息论。在信息论中,首先我们引入了信息熵的概念。认为一切信息都是一个概率分布。所谓信息熵,就...

  • 交叉熵

    信息论: 交叉熵是信息论中的一个概念,要想了解交叉熵的本质,需要先从最基本的概念讲起。 信息量: 首先是信息量。假...

  • 人工智能通识-科普-信息熵和信息量

    欢迎关注我的专栏( つ•̀ω•́)つ【人工智能通识】 信息论中的熵如何度量的? 信息熵和信息量 信息是否可以有统一...

  • 信息论,熵,KL散度,交叉熵

    信息论交叉熵是信息论中的一个概念,要想了解交叉熵的本质,需要先从最基本的概念讲起。 1 信息量首先是信息量。假设我...

  • 绪论与概览 —— 读《信息论基础》(一)

    首先,信息论回答什么问题: 信息论解答了通信理论中的两个基本问题:临界数据压缩的值(答案:熵H)和临界通信传输速率...

  • 决策树算法梳理

    决策树算法梳理 1. 信息论基础(熵 联合熵 条件熵 信息增益 基尼不纯度) 1.1 熵 (entropy)...

网友评论

    本文标题:信息论中的熵和惊异

    本文链接:https://www.haomeiwen.com/subject/bjvcnltx.html