什么熵

作者: 我爱麦芽糖 | 来源:发表于2019-07-10 13:45 被阅读0次

    信息量

    • 定义

      概率越低信息量越大

      概率越高信息量越低

    • 公式

      I_{(px)}=-log(px)


      例如

      事件 概率 信息量
      电脑炸了 0.1 -log(0.1)=2.3
      电脑无法开机 0.2 -log(0.2)=1.61
      电脑开机 0.7 -log(0.9)=0.36

    • 定义

      是指所有信息量的期望值

    • 公式

      H_{(x)}=-\sum_{i=1}^nP(x_i)log(P(x_i))


    P(x_i)为概率,-logP(x_i)为信息量

    相对熵(KL离散度)

    • 公式

      D_{(KL)(p||q)}=\sum_{i=1}^np(x_i)log( \frac {p(x_i) }{q(x_i)} )


      n为所有可能,D_{(KL)}\downarrow 则q分布和p分布越接近

    交叉熵

    • 推导公式

    D_{KL}(p||q)=\sum_{i=1}^np(x_i)log(p(x_i))-\sum_{i=1}^np(x_i)log(q(x_i))

    = -H_{(x)}-\sum_{i=1}^np(x_i)log(q(x_i))

    ​ 由(D_{KL})\downarrow\Rightarrow0 可以得出 H_{(x)}=-\sum_{i=1}^np(x_i)log(q(x_i))

    • 公式

      H_{(pq)}=-\sum_{i=1}^np(x_i)log(q(x_i))


      H_{(pq)}为交叉熵

    相关文章

      网友评论

        本文标题:什么熵

        本文链接:https://www.haomeiwen.com/subject/tcfhkctx.html