美文网首页
信息量诠释

信息量诠释

作者: 找到社群Ben | 来源:发表于2019-07-21 12:57 被阅读0次

如果一种情况发生的可能性大,另一种发生的可能性小,所需要的信息就不到1比特。比如说,一种情况出现的概率是1/3,另一种是2/3,这种情况下消除不确定性的信息量则降低到0.9比特。

在更极端的情况下,比如一种情况有99%的可能性发生,另一种是1%,那么这时的不确定性只有0.08比特了。

信息的这个性质,和我们生活的经验是一致的,大家都知道二者皆50%的可能性最让人头疼。而公众都知道的信息,其实是没有信息量的。这是今天要记住的第二个知识点。

相关文章

  • 信息量诠释

    如果一种情况发生的可能性大,另一种发生的可能性小,所需要的信息就不到1比特。比如说,一种情况出现的概率是1/3,另...

  • 《男人这东西》---男人眼中的男人原来是这样的

    本书是2004年2月出版的,这是一位当时已入花甲之年的成熟男人笔下诠释出来的男人所具有的样貌。 书中的信息量太大突...

  • 信息量

    这一次,信息量真的很大。 2016-05-23 看一眼,就会爱上它,你还等什么,赶紧看完收藏吧!!!! 论文 论文...

  • 信息量

    身处当今世界,每天接触最大的就是铺天盖地的信息了!信息量越来越大的今天,对于生活其中的人们来说,其实也有它的...

  • 信息量

    1个信号量: - (IBAction)dispatchSingal0:(UIButton *)sender { ...

  • #观察永澄50天实验-09天#

    这次的文章信息量太大了,先留言后再多读几遍。 整体可以用钻石模型的图进行诠释和理解,x平面上一个平行四边形,每个角...

  • 2018年6月6日

    上午: 通信原理 求信息量和平均信息量

  • 什么熵

    信息量 定义概率越低信息量越大概率越高信息量越低 公式例如事件概率信息量电脑炸了0.1电脑无法开机0.2电脑开机0...

  • 信息量和信息熵

    信息量的定义: 信息量度量的是一个具体事件发生所带来的信息,衡量信息量大小就看这个信息消除不确定性的程度; 信息量...

  • Entropy,Gini ,Information gain

    Entropy 信息量:值域发生概率越小,信息量越大。不确定性越高,信息量越大。 信息熵:值域,更确切为:,为类别...

网友评论

      本文标题:信息量诠释

      本文链接:https://www.haomeiwen.com/subject/xhvmlctx.html