美文网首页
关于entropy的思考

关于entropy的思考

作者: 阮恒 | 来源:发表于2020-05-07 04:51 被阅读0次

    计算a, b的entropy

    import numpy as np
    import scipy.stats as stats
    
    a = [0.8, 0.15, 0.05]
    b = [0.5, 0.3, 0.2]
    a = np.asarray(a)
    b = np.asarray(b)
    print(stats.entropy(a))
    print(stats.entropy(b))
    

    结果是:

    0.6128694524619495
    1.0296530140645737
    

    说明b的entropy更高。

    再次计算

    import numpy as np
    import scipy.stats as stats
    
    a = [0.1, 0.1, 0.9, 0.8, 0.1]
    b = [0.9, 0.9, 0.8, 0.9, 0.8]
    c = [0.1, 0.1, 0.2, 0.1, 0.1]
    a = np.asarray(a)
    b = np.asarray(b)
    print(stats.entropy(a))
    print(stats.entropy(b))
    print(stats.entropy(c))
    

    结果是:

    1.1752045970807579
    1.6078017841829741
    1.5607104090414068
    

    问题:

    1. 方差和entropy成反比?
    2. entropy和KL divergence是什么关系?

    相关文章

      网友评论

          本文标题:关于entropy的思考

          本文链接:https://www.haomeiwen.com/subject/uxvlnctx.html