美文网首页
2019-04-17

2019-04-17

作者: AliceGYY | 来源:发表于2019-04-17 10:40 被阅读0次

    减函数

    函数f(x)的定义域为I,如果对于定义域I内的某个区间D上的任意两个自变量的值x1,x2 ,当x1<x2时,都有f(x1)> f(x2),那么就说f(x)在这个区间上是减函数,并称区间D为递减区间。减函数的图像从左往右是下降的,即函数值随自变量的增大而减小。判断一个函数是否为减函数可以通过定义法、图像法、直观法或利用该区间内导数值的正负来判断。

    信息量是信息出现频率的减函数,也就是说信息出现频率高,我们感受到不确定性大,获得的信息就小;而出现频率低的词汇,一旦出现,带给我们的不确定性会很小,因而信息量就大。

    可加性

    信息具有可加性,即两个词汇的信息量是由这两个词汇各自的信息量组合而成的。

    信息熵=x_{1} log\frac{1}{x_{1} }  +x_{2} log\frac{1}{x_{2} } +x_{3} log\frac{1}{x_{3} } 
+...

    上述公式中,X表示的是每个单词出现的频率(或者说概率)。

    信息熵就是整个信息系统中的平均不确定性。

    按照上述公式,每个单词其实都为产生认知提供了自己的信息。每个单词为信息熵做的贡献为x_{} \log \frac{1}{x} ,变换一个形式为-\log x^x

    相关文章

      网友评论

          本文标题:2019-04-17

          本文链接:https://www.haomeiwen.com/subject/nyfgwqtx.html