美文网首页
关于entropy的思考

关于entropy的思考

作者: 阮恒 | 来源:发表于2020-05-07 04:51 被阅读0次

计算a, b的entropy

import numpy as np
import scipy.stats as stats

a = [0.8, 0.15, 0.05]
b = [0.5, 0.3, 0.2]
a = np.asarray(a)
b = np.asarray(b)
print(stats.entropy(a))
print(stats.entropy(b))

结果是:

0.6128694524619495
1.0296530140645737

说明b的entropy更高。

再次计算

import numpy as np
import scipy.stats as stats

a = [0.1, 0.1, 0.9, 0.8, 0.1]
b = [0.9, 0.9, 0.8, 0.9, 0.8]
c = [0.1, 0.1, 0.2, 0.1, 0.1]
a = np.asarray(a)
b = np.asarray(b)
print(stats.entropy(a))
print(stats.entropy(b))
print(stats.entropy(c))

结果是:

1.1752045970807579
1.6078017841829741
1.5607104090414068

问题:

  1. 方差和entropy成反比?
  2. entropy和KL divergence是什么关系?

相关文章

  • 关于entropy的思考

    计算a, b的entropy 结果是: 说明b的entropy更高。 再次计算 结果是: 问题: 方差和entro...

  • Week 14

    上周端午节,写了一个关于entropy的note,又翻了翻Arial写的entropy的书,在上他的informa...

  • Tensorflow API Cross Entropy and

    关于tf.nn.softmax_cross_entropy_with_logits()/tf.losses.sof...

  • 熵(entropy)

    統計學的熵(entropy) 其他文章連結:Cross entropy1Cross entropy2Cross e...

  • 多样性计算

    Reps 包括gini, shannon.entropy, metric.entropy, simpson, d5...

  • Entropy

    Entropy(熵) 一个信息源发出多种信号,如果某个信号概率大,那么它后面出现的机会也大,不确定性会小。反之就会...

  • Entropy

    It was about two months ago when I realized that entrop...

  • 3. 决策树 Decision Tree:熵和信息增益

    决策树是一个很好理解的算法,其精髓在于: 1、熵 Entropy:Entropy = −∑i​ (p​i​​) l...

  • Hyperledger-Fabric源码分析(Gossip-An

    Anti-Entropy 首先我们先看一个概念,Anti-Entropy。Gossip算法又被称为反熵(Anti-...

  • KL Divergence

    Entropy of distribution P is , which reflects the amount ...

网友评论

      本文标题:关于entropy的思考

      本文链接:https://www.haomeiwen.com/subject/uxvlnctx.html