美文网首页
entropy、mutual information

entropy、mutual information

作者: Oo_ | 来源:发表于2017-09-30 10:12 被阅读0次

如何量化,用数学语言去表述信息(information)这个概念?这似乎是一个很难的问题,因为信息所包含的概念太广了。人们从概率论角度出发,找到了Entropy,其性质和我们所理解的information具有很多相似之处。基于entropy,我们又找到了mutual information。MI用来评价一个随机变量与另一个随机变量的包含关系。如果将entropy理解为一个随机变量的self-information,那么MI可以理解为relative entropy,形象的说就是两个概率分布之间的距离。

    self-information  ------>  entropy

mutual information ------> relative entropy

相关文章

网友评论

      本文标题:entropy、mutual information

      本文链接:https://www.haomeiwen.com/subject/cokgextx.html