美文网首页
(数理统计基础2)参数估计

(数理统计基础2)参数估计

作者: To_QT | 来源:发表于2019-05-05 15:45 被阅读0次

    符号说明:设有一个统计总体,以f(x, \theta_1, \theta_2, ... ,\theta_n)表示其概率密度函数(若总体为离散型则为概率函数)。其中,x表示任意实数,\theta_i, i=1,2,..., n表示未知的参数,以正态分布N(\mu, \sigma^2)为例,\theta_1:\mu\theta_2: \sigma

    1. 估计方法

    点估计

    方法

    从总体中抽出样本X_1,X_2,X_3,...,X_n,依据这些样本对参数\theta_1, \theta_2, ..., \theta_n进行估计。

    例子:

    指数分布为例:假设随机变量X服从以\lambda为参数的泊松分布,参数\lambda未知,现在知道样本值,我们可以利用泊松分布中E(X)=\lambda,通过计算样本均值,对\lambda进行估计。


    1.1 矩估计

    可以理解成解方程组。。。

    啥是矩?

    随机变量数字特征复习

    样本均值:
    \overline{X} = \frac{1}{n} \sum_{i=1}^{n}X_i \tag{2.1}

    样本方差:
    \begin{align} S^2 =& \frac{1}{n-1} \sum_{i=1}^{n}(X_i-\overline{X})^2 \\\ =& \frac{1}{n-1} (\sum_{i=1}^{n}X_i^2-n\overline{X}^2) \tag{2.2} \end{align}

    由大数定理可知,样本矩的连续函数依概率收敛于相应的总体矩的连续函数

    一般情况下,通过计算样本方差和样本均值可以解决大多数常见分布的矩估计问题。

    1.2 极大似然估计

    直观理解

    在随机试验中,假设随机变量X有概率密度函数f(x, \theta_1, \theta_2, ..., \theta_k)。而X_1, X_2, X_3, ..., X_n是从总体中抽出的样本,那么,这个n的随机变量的联合概率密度为:
    f(X_1, \theta_1, \theta_2, ..., \theta_k)f(X_2, \theta_1, \theta_2, ..., \theta_k)f(X_3, \theta_1, \theta_2, ..., \theta_k)···f(X_k, \theta_1, \theta_2, ..., \theta_k)
    记为L(X_1, ..., X_n; \theta_1, \theta_2, ..., \theta_k)

    那么现在来皮一下,对L(X_1, ..., X_n; \theta_1, \theta_2, ..., \theta_k)进行两种操作:

    • 固定住\theta_1, \theta_2, ..., \theta_k:

      • 这个时候,L是一个概率密度函数,若存在L(Y_1, ..., Y_n; \theta_1, \theta_2, ..., \theta_k)>L(X_1, ..., X_n; \theta_1, \theta_2, ..., \theta_k),我们可以理解为在观察时,出现Y_1, Y_2, ..., Y_n的概率要大于X_1, X_2, ..., X_n出现的概率。
    • 固定住X_1, ..., X_n

      • 当观察到X_1, X_2, ..., X_n时,若出现L(X_1, ..., X_n; {\theta_1}', ..., {\theta_k}')>L(X_1, ..., X_n; {\theta_1}'', ..., {\theta_k}''),则说明被估计参数{\theta_1}', {\theta_2}', ..., {\theta_k}'{\theta_1}'', {\theta_2}'', ..., {\theta_k}''更接近与真实的{\theta_1}, {\theta_2}, ..., {\theta_k}
      • 也就可以理解为:函数L(X_1, ..., X_n, \theta_1, \theta_2, ..., \theta_k)对于不同的{\theta_1}, ..., {\theta_k}的取值,反映了在观察值X_1, X_2, ..., X_n已知的情况下,{\theta_1}, ..., {\theta_k}的各种“似然程度”

    为了获得最近接真实的参数{\theta_1}, {\theta_2}, ..., {\theta_k},一个很自然的想法就是要在固定住X_1, ..., X_n的情况下,使得这个L(X_1, ..., X_n; \theta_1, \theta_2, ..., \theta_k)尽可能的大。

    定义

    L(X_1, ..., X_n; {\theta_1}^*, {\theta_2}^*, ..., {\theta_k}^*)=\underset{\theta_1,..,\theta_k}{max}L(X_1, ..., X_n; \theta_1, \theta_2, ..., \theta_k) \tag{3.1}

    在公式(3.1)中,{\theta_1}^*, {\theta_2}^*, ..., {\theta_k}^*就叫做{\theta_1,..,\theta_k}最大似然估计

    log L(X_1, ..., X_n; {\theta_1}^*, {\theta_2}^*, ..., {\theta_k}^*)=\underset{\theta_1,..,\theta_k}{max} log L(X_1, ..., X_n; \theta_1, \theta_2, ..., \theta_k) \tag{3.2}
    为了计算方便,就左右同时取了对数。需使logL达到最大,在f{\theta_1,..,\theta_k}存在连续的偏导数时,可以建立方程组(似然方程组):
    \frac{\partial logL}{\partial \theta_i}=0, i=1,...,k \tag{3.3}


    1.3 贝叶斯估计

    假设我们要估计一个参数: \theta,假设这个\theta存在某种概率分布(可以是你自己YY出来的,也可以是根据之前类似的经验得出来的),记为h(\theta)
    那么设有总体概率密度f(X, \theta),从总体中抽取出X_1, X_2, X_3,...,X_n,则样本的密度为f(X_1, \theta)f(X_2 \theta)...f(X_n, \theta),那么(\theta, X_1, X_2, .., X_n)的联合概率密度为:
    h(\theta)·f(X_1, \theta)·f(X_2, \theta)·f(X_3, \theta)···f(X_n, \theta) \tag{4.1}
    先求f(X_1, \theta)·f(X_2, \theta)·f(X_3, \theta)···f(X_n, \theta)的边缘概率密度,有
    p(x_1,X_2,...,x_n)=\int h(\theta)·f(X_1, \theta)·f(X_2, \theta)·f(X_3, \theta)···f(X_n, \theta) d(\theta) \tag{4.2}
    (积分上下限看\theta的取值范围。)
    然后在已知X_1, X_2, X_3, ..., X_n的情况下,\theta的条件概率为:
    h(\theta|x_1,X_2,...,x_n)=\frac {h(\theta)·f(X_1, \theta)·f(X_2, \theta)·f(X_3, \theta)···f(X_n, \theta)}{p(x_1,X_2,...,x_n)} \tag{4.3}
    这个条件密度代表了后验知识,原先的h(\theta)代表了先验知识,此后,针对\theta的所有统计推断都是基于后验分布

    ps:一般来说h(\theta)需要满足h(\theta) \geqslant 0,且\int h(\theta) =1,若不满足,则称为广义先验密度


    2. 估计量的评选标准

    2.1 无偏性

    若估计量\widehat{\theta}=\widehat{\theta}(X_1, X_2, X_3, ..., X_n)的数学期望E(\widehat{\theta})=\theta,则称为无偏估计。

    在样本中,将S^2作为设\sigma^2的估计量。

    2.2 有效性

    \widehat{\theta}_1=\widehat{\theta}_1(X_1, X_2, X_3, ..., X_n)\widehat{\theta}_2=\widehat{\theta}_2(X_1, X_2, X_3, ..., X_n)相比,有
    \widehat{\theta}_1 \leq D(\widehat{\theta}_2)
    \widehat{\theta}_1\widehat{\theta}_2有效

    同一个参数可以用好多中方法进行参数估计,因此涉及一个判断优劣的问题,这就需要为估计量指定优劣准则,进而研究在某种准则下寻找最优估计量的问题。


    3. 区间估计

    大白话

    上述的几个估计方法都属于点估计的范畴,而区间估计则是用一个区间去估计一个参数,换句话说就是把未知的参数值设定在一个界限范围内。例如:估计一个人的年龄,点估计的结果为,这个人可能有33岁;区间估计的结果为,这个人应该在30-35岁之间。

    区间估计其实就是找带估计参数的取值范围。这个取值范围需要满足两个条件:

    1. \theta要很大可能落在这个取值范围内,也就是对于样本X_1, ..., X_n而言,有
      P_{\theta}(\widehat{\theta}_1(X_1, ..., X_n)< {\theta} < \widehat{\theta}_2(X_1, ..., X_n)) \tag{3.1}
      尽可能的大。

    2.估计的精度要尽可能的高,即\widehat{\theta}_2-\widehat{\theta}_1要尽可能的小。

    定义

    给定一个很小的数 \alpha,如果有对参数\theta的任何值,公式(3.1)的计算结果都等于1-\alpha,那么,就称估计区间[\widehat{\theta}_1, \widehat{\theta}_2]的置信系数为1-\alpha。(OS:对该区间能包含未知参数\theta可置信到何种程度)

    根据提供的信息:样本均值、样本方差,样本数量以及对应的总体均值和总体方差(虽然有的时候不提供),先确定属于什么样的分布。N, \chi^2,t,F其中的一种。已知概率求解对应的参数。


    4. 参加文献

    相关文章

      网友评论

          本文标题:(数理统计基础2)参数估计

          本文链接:https://www.haomeiwen.com/subject/ppvxoqtx.html