引言
在机器学习中经常会接触到无偏估计和有偏估计这两类概念,本文汇总了多篇博客是讲解内容,旨在深入透彻地理解这两个概念
- 有问题欢迎在交流区探讨学习,QQ:761322725
- 码字不易,好心人随手点个赞👍
有偏估计(biased estimate)是指由与之间有系统误差,其期望值不是待估参数的真值。
在统计学中,估计量的偏差(或偏差函数)是此估计量的期望值与估计参数的真值之差。偏差为零的估计量或决策规则称为无偏的。否则该估计量是有偏的。在统计学中,“偏差”是一个函数的客观陈述。
一句话概括就是,有偏估计是在样本估计值和真值间存在误差的估计
我们在日常统计中常用的样本方差即是有偏估计量
无偏估计是用样本统计量来估计总体参数时的一种无偏推断。估计量的数学期望等于被估计参数的真实值,则称此此估计量为被估计参数的无偏估计,即具有无偏性,是一种用于评价估计量优良性的准则。
无偏估计的意义是:
无偏估计常被应用于测验分数统计中。
假如,我们可以采样无穷无尽的样本,那么理论上下面的估计就是精确的,
这也可以理解为,当样本数趋于无穷时,有偏估计和无偏估计等价。
分析讨论
为什么分母项变成n-1就成了无偏估计呢?
下面我们来证明其是无偏估计和有偏估计!
证明关键在于说明,计算样本估计量的期望值,将该期望值与参数真值进行比较,即计算/证明。 与上面所提到的样本无穷的假设相较,我们的实际计算中是只能采样一批数据进行计算,
n是一个固定的数字,比如我们随机梯度下降时,用一个batch的样本的平均梯度,来作为整体样本的梯度估计。另一方面,我们也不是估计一次就完事了,
我们可能会估计很多次,即首先采样n个样本,算一次得到和;
再随机采样n个样本算一次得到和,依此类推得到(),(),…,我们想知道的是:
苏剑林. (2019, Jun 19). 《简述无偏估计和有偏估计 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/6747
也就是说,“有限平均”的“无限平均”,是否等于我们最终要求的平均?
这里我们取用n=2,每次只取两个样本,来以实际例子的讨论无偏估计和有偏估计。
- 首先看样本均值的估计量,定义样本均值真实值为,两个样本的情况下:
可见我们常用样本均值的估计量是,注:此处非标准严格的证明,仅为讨论解释 - 再看样本方差的估计量
而准确的方差表达式为,对上式乘即2,就可以得到准确方差。说明了其为有偏估计。
直观来看,用有限样本的上式来估计方差,由于样本少了,波动也会变小,所以方差估计也会偏小,这就是所谓的有偏。
极端情况下,如果只采样一个样本进行估计呢?估计出来的方差就是0了,不管怎么重复实验,结果还是0,我们总不能说整批样本的方差一定就是0吧?这便是有偏估计的最简单例子。
并不是所有的有偏估计都可以像方差一样,简单将n换成n−1就变为无偏估计了。一般情形下,我们想要估计的量,连估计本身都很难,更不要说有偏还是无偏了,所以要对一般的估计量消除偏差,都得具体问题具体分析了
推导证明
我们来尝试证明
代入上式可得:
//总样本方差与抽样方差相等
通过上式也直接证明了n-1式的无偏估计特性
在各类科学计算工具包中,对这两种估计都有不同的实现,使用时应该根据需要选择区分。
参考资料
https://blog.csdn.net/cx1165597739/article/details/93330524
https://blog.csdn.net/weixin_31866177/article/details/89003517
苏剑林. (2019, Jun 19). 《简述无偏估计和有偏估计 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/6747
网友评论