美文网首页
十分钟学习极大自然似估计

十分钟学习极大自然似估计

作者: 培根炒蛋 | 来源:发表于2019-04-26 15:53 被阅读0次

EndlessLethe原创文章,转载请注明: 转载自小楼吹彻玉笙寒
原文链接地址: 十分钟学习极大似然估计

前言

参数估计是机器学习里面的一个重要主题,而极大似然估计是最传统、使用最广泛的估计方法之一。

本文主要介绍了极大似然估计,简单说明了其和矩估计、贝叶斯估计的异同,其他估计(如MAP)并不涉及。

为什么要用极大似然估计

对于一系列观察数据,我们常常可以找到一个具体分布来描述,但不清楚分布的参数。这时候我们就需要用极大似然估计来求解这个分布的参数。换句话说,极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。

极大似然估计概述

下面结合一个例子介绍极大似然估计法的思想和方法:

设一个袋子中有黑、白两种球,摸到白球的概率为p,现在要估计p的值。
我们令总体X为

X = \left. \begin{cases} 0,\quad 从袋中取得一白球,\\ 1,\quad 从袋中取得一黑球.\\ \end{cases} \right.

则X服从01分布B(1,p)

我们先进行有放回地摸球10次,其结果可用随机变量xi表示,则x1,x2,⋯,x10是来自总体X的一个样本。其值=(1,0,1,0,0,0,1,0,0,0),则似然函数为L(p)=p^3 (1−p)^7

极大似然估计其实是理想地认为,对于极少的样本观测,我们观测到的样本很可能就是发生概率最大的。

似然函数L(p)是每个样本出现概率的乘积\prod_{i=1}^N {P({x_i})},因为显然样本是独立同分布的。
根据极大似然估计的思想,我们需要让L(p)最大,把这时对应的\hat p作为我们的估计值。

求解L(p)的最大值点\hat p,可由一阶导数

\frac{dL(p)}{dp}=0

确定。更一般的,我们通常可以假设白球出现次数为k,可以解得

\hat p = \frac{k}{N}

这里带入k=3\hat p,所以我们把0.3作为摸到白球的概率

值得注意的是,根据似然函数来求解参数的过程,与样本数量是无关的。我们可以使用变量x_i来描述样本观测值,并将模型参数θ用来x_i表示。当样本较少时,极大似然估计偏差较大。但随着样本的增多(样本逐渐靠近总体分布),偏差慢慢减少为0。这意味着,极大似然估计是非常普适的。

实际上,即使直观上“极大似然估计”似乎是非常自然的想法,但它能在统计学中拥有堪比牛顿力学在物理学中的地位,是因为这种朴素的想法背后蕴含了估计量的泛函不变性、相合性、渐近有效性和渐进正态等诸多逆天的性质。

Note:极大似然估计暗合了切比雪夫大数定律。比如在这个例子中,如果放回次数变得极大,那么根据大数定律也有\hat p = \frac{k}{N} 。所以在用“局部估计整体”时,可以说使用了极大似然估计法,也可以说根据大数定律。

极大似然估计的具体步骤

我们需要做四步:表示似然函数、假设样本观测值、求解方程和代入数据。

似然函数

对于离散型和连续型随机变量,极大似然估计值\hat \theta都满足:

L(\hat \theta)=\max{L(\theta)}

只不过似然函数L(θ)的表示方式略有不同:
离散型随机变量的似然函数是L(\theta) = \prod_{i=1}^N P({x_i}),而连续型是L(\theta) = \prod_{i=1}^N f({x_i})

样本假设

假设样本观测值为x_i

求解方程
由定义可知,估计值可由一阶导数

\frac{dL(p)}{dp}=0

解得。但由于lnL和L在同一位置取得最大值,所以极大似然估计值也可以由对数似然方程

\frac{d(\ln{L(p)})}{dp}=0

解得。

深入的数理统计理论可以证明:当总体分布服从单峰分布时,如果上两式有解,则其解就是θ的极大似然估计值。
Note:当方程无解时,应从定义出发,考虑L(θ)的单调性,找到maxL(θ)对应的估计值。

带入数据

x_i用真实数据替换

多参数极大似然估计

当总体X的分布中含有多个未知参数,即\theta=(\theta_1,\theta_2,⋯,\theta_k)时,似然函数为L(\theta)=L(\theta_1,\theta_2,⋯,\theta_k)。有对数似然方程组:

\left\{ \begin{aligned} \frac{\partial(\ln L(\theta))}{\partial{\theta_1}} & =0\\ \frac{\partial(\ln L(\theta))}{\partial{\theta_2}} & =0\\ \cdots \cdots \cdots\\ \frac{\partial(\ln L(\theta))}{\partial{\theta_k}} & =0\\ \end{aligned} \right.

方程的解是其对应的极大似然估计值。

总结

最大似然估计的特点

  1. 比其他估计方法更加简单
  2. 收敛性:无偏或者渐近无偏
  3. 如果假设的类条件概率模型正确,则通常能获得较好的结果。但如果假设模型出现偏差,将导致非常差的估计结果。

常用分布的估计值

任意概率分布:\hat p = \frac{k}{N}
正态分布:\hat \mu = \overline x = \frac{1}{n}\sum_{i=1}^n{x_i}\hat{\sigma^2}=\frac{1}{n}\sum_{i=1}^N(x_i – \overline x)^2
泊松分布:\hat \lambda = \overline x = \frac{1}{n}\sum_{i=1}^n{x_i}
均匀分布:\hat a = \max{x_i},\hat b = \max{x_i}

最大似然估计和矩估计

对于正态分布和泊松分布,两种估计都是一致的(均匀分布不一致)。矩估计的优点是简单,只需知道总体的矩,总体的分布形式不必知道。而最大似然估计则必须知道总体分布形式,并且在一般情况下,似然方程组的求解较复杂,往往需要在计算机上通过迭代运算才能计算出其近似解。

最大似然估计和贝叶斯估计

最大似然估计是传统频率派估计参数的方法,而贝叶斯估计是贝叶斯统计派估计参数的方法。前者认为θ是一个固定的值,而后者认为θ是一个满足某个分布的随机变量。后者的泛化能力更好,但计算更复杂。

相关文章

  • 十分钟学习极大自然似估计

    EndlessLethe原创文章,转载请注明: 转载自小楼吹彻玉笙寒原文链接地址: 十分钟学习极大似然估计 前言 ...

  • 机器学习-极大似然估计

    极大似然估计方法在机器学习中用的非常多,是一个必须要掌握的知识点。在周志华《机器学习》中这一章讲的较为简略,以下我...

  • 机器学习:极大似然估计

    极大似然估计(Maximum Likelihood Estimate,MLE)  由于样本数据,是实实在在发生的数...

  • 机器学习-极大似然估计

    极大似然估计方法在机器学习中用的非常多,是一个必须要掌握的知识点。在周志华《机器学习》中这一章讲的较为简略,以下我...

  • 极大似然估计

    极大似然估计 以前多次接触过极大似然估计,但一直都不太明白到底什么原理,最近在看贝叶斯分类,对极大似然估计...

  • 极大似然估计

    极大似然估计(Maximum Likelihood Estimation,MLE),也称最大似然估计。“似然”是对...

  • 极大似然估计

    序 极大似然估计和最大后验估计是机器学习中常用的两种参数估计方法。本次记录MLE的原理和用法,为后续推导LR等目标...

  • 极大似然估计

    动机 在学习机器学习算法过程中,发现很多算法策略都采用极大似然估计, 如:线性、逻辑回归,决策树,隐马尔科夫模型。...

  • 极大似然估计

    极大似然估计是一种参数估计的方法(知模型求参数)。先验概率是 知因求果,后验概率是 知果求因,极大似然是 知果求最...

  • 极大似然估计

    现实情况中我们可能会遇到这样的一些例子,需要得到一所高校有车学生的分布情况(假定符合参数为p的伯努利分布),某地区...

网友评论

      本文标题:十分钟学习极大自然似估计

      本文链接:https://www.haomeiwen.com/subject/zofqnqtx.html