美文网首页
贝叶斯定理与极大似然估计

贝叶斯定理与极大似然估计

作者: 帝都De雾霾 | 来源:发表于2018-12-02 16:55 被阅读0次

贝叶斯定理

贝叶斯定理是以条件概率为基础的,所以我们要首先复习下条件概率。
所谓"条件概率"(Conditional probability),就是指在事件B发生的情况下,事件A发生的概率,用P(A|B)来表示。

文氏图
可以很清楚地看到在事件B发生的情况下,事件A发生的概率就是P(A∩B)除以P(B)

P(B)乘过去,易得:

同理:

从文氏图中很显然

所以可得:

最后我们就推导出了条件概率的计算公式:

上式也可以理解为贝叶斯定理的公式。

我们把P(A)称为"先验概率"(Prior probability),即在B事件发生之前,我们对A事件概率的一个判断。P(A|B)称为"后验概率"(Posterior probability),即在B事件发生之后,我们对A事件概率的重新评估。 \frac{P(B|A)}{P(B)}称为"可能性函数"(Likelyhood),这是一个调整因子,使得预估概率更接近真实概率。
所以,条件概率可以理解成下面的式子:

后验概率 = 先验概率 x 调整因子

这就是贝叶斯推断的含义。我们先预估一个"先验概率",然后加入实验结果,看这个实验到底是增强还是削弱了"先验概率",由此得到更接近事实的"后验概率"。

在这里,如果"可能性函数"\frac{P(B|A)}{P(B)} > 1,意味着"先验概率"被增强,事件A的发生的可能性变大;如果"可能性函数"=1,意味着B事件无助于判断事件A的可能性;如果"可能性函数"<1,意味着"先验概率"被削弱,事件A的可能性变小。

三门问题

问题描述
三门问题(Monty Hall problem)亦称为蒙提霍尔问题、蒙特霍问题或蒙提霍尔悖论,大致出自美国的电视游戏节目Let’s Make a Deal。问题名字来自该节目的主持人蒙提·霍尔(Monty Hall)。参赛者会看见三扇关闭了的门,其中一扇的后面有一辆汽车,选中后面有车的那扇门可赢得该汽车,另外两扇门后面则各藏有一只山羊。当参赛者选定了一扇门,但未去开启它的时候,节目主持人开启剩下两扇门的其中一扇,露出其中一只山羊。主持人其后会问参赛者要不要换另一扇仍然关上的门。问题是:换另一扇门会否增加参赛者赢得汽车的概率?

  1. 最开始的时候,我们对这三扇门之后有什么一无所知,所以我们最好的做法是公平对待三扇门,我们假设A_n(n=1,2,3) 为第n个门之后有汽车,那么我们有P(A_n)=1/3
  2. 假设我们选择门1,主持人打开了门2,这时根据我们打开的门之后是否有汽车,主持人打开的门的概率是会有变化的:如果门1后有汽车,对于正常人来说,主持人打开门2和门3的概率基本上应该是一致的,为1/2;如果门2后有汽车,主持人打开门2的概率是0,如果门3后有汽车,主持人打开门2的概率是1
  3. 我们设事件 B = { 主持人打开了门2 },那么我们可以得到:
  • 假设 1 号门后是汽车,那2和3号门后都是羊,那么主持人打开门2和门3是一样的,概率都是0.5,即P(B|A_1)=\frac{1}{2},
  • 假设 2 号门后是汽车,因为主持人已知汽车在哪个门后面,那么主持人是不会打开门2的,即P(B|A_2)=0
  • 假设 3 号门后是汽车,那么门1和门2后面都是羊,此时参赛者已经选择了1号门,主持人别无选择只能打开2号门,所以 P(B|A_3)=1
    那么我们计算 P(A_1|B),这个式子表示我们在得到主持人打开的门2后面没有汽车这个事实之后,对于P(A_1)这个概率的调整:

    而P(B)可以通过全概率公式计算:

    很容易计算出:

    所以三门问题的答案是如果换门会增加赢得汽车的概率。不换门的话,赢得汽车的几率是1/3。换门的话,赢得汽车的几率是2/3。

极大似然估计

要明白极大似然估计的思想,我们先来引入一个概念-似然函数

在数理统计学中,似然函数是一种关于统计模型中的参数的函数,表示模型参数中的似然性。
</br>
“似然性”与“概率”意思相近,都是指某种事件发生的可能性,但是在统计学中,“似然性”和“概率”又有明确的区分。概率用于在已知一些参数的情况下,预测接下来的观测所得到的结果,而似然性则是用于在已知某些观测所得到的结果时,有关事物的性质的参数进行估计

在这种意义上,似然函数可以理解为条件概率的逆反。
在已知某个参数 B 时,事件 A 会发生的概率写作P(A|B)=\frac{P(A,B)}{P{B}}。那么我们反过来构造表示似然性的方法:已知有事件 A 发生,运用似然函数 {\mathbb {L}}(B\mid A),估计参数 B 的可能性。
形式上,似然函数也是一种条件概率函数,但我们关注的变量改变了。

通过一个掷硬币的例子来解释下概率和似然函数的区别:

概率是给定某一参数值,求某一结果的可能性。
例如,抛一枚匀质硬币,抛10次,6次正面向上的可能性多大? "匀质硬币"表明参数值是0.5,"抛10次,六次正面向上"这是一个结果,概率(probability)是求这一结果的可能性。使用公式:

n=10, k=6, P=0.5, Q=0.5, 计算得:0.205。
即,匀质硬币,抛10次,6次向上的概率是0.205

似然是给定某一结果,求某一参数值的可能性。

例如,抛一枚硬币,抛10次,结果是6次正面向上,其是匀质的可能性多大?"抛10次,结果是6次正面向",这是一个给定的结果,问"匀质"的可能性,即求参数值=0.5的可能性。
计算公式与上面相同。结果相同,只是视角不同。

与此相联系的是最大似然法(极大似然法),问题就变成:

"抛10次,结果是6次正面朝上,那么,参数P的最大可能值是什么?"。

当然,从0到1的可能性都有。怎么求出可能性最大的(即最像的)的呢?最基本的办法是一个一个试,先求参数值为0.01的可能性(即概率),再算参数值为0.02的概率,依此类推,直到0.99的概率,看看哪个参数值的概率最大,就把它作为参数的估计值,这就是最大似然法。
我们通过代码模拟下,看是否可以绘制出可视化的曲线:

from scipy.special import comb
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt

#计算概率
def getProbability(n, k, p):
    return comb(n,k)*pow(p, k)*pow(1-p, (n-k))

result = []
for i in range(100):
    result.append(getProbability(10,6,0.01*i))

fig = plt.figure(figsize=(10, 5))
ax1 = fig.add_subplot(111)
ax1.plot(np.linspace(0, 1.0, num=100), result, 'ko')
ax1.set_title('最大似然估计')
fig.show()
image

可以看出参数值为0.6的概率最大,因此0.6就是用极大似然法求出的参数估计值。

但这只是一次实验的结果,如果我们进行大量的实验,并且每次投掷的次数也加大,参数值的估计值会趋于0.5。

相关文章

  • 贝叶斯定理与极大似然估计

    贝叶斯定理 贝叶斯定理是以条件概率为基础的,所以我们要首先复习下条件概率。所谓"条件概率"(Conditional...

  • 极大似然估计

    极大似然估计 以前多次接触过极大似然估计,但一直都不太明白到底什么原理,最近在看贝叶斯分类,对极大似然估计...

  • 极大似然估计

    极大似然估计(Maximum Likelihood Estimation,MLE),也称最大似然估计。“似然”是对...

  • 极大似然估计

    序 极大似然估计和最大后验估计是机器学习中常用的两种参数估计方法。本次记录MLE的原理和用法,为后续推导LR等目标...

  • 极大似然估计

    动机 在学习机器学习算法过程中,发现很多算法策略都采用极大似然估计, 如:线性、逻辑回归,决策树,隐马尔科夫模型。...

  • 极大似然估计

    极大似然估计是一种参数估计的方法(知模型求参数)。先验概率是 知因求果,后验概率是 知果求因,极大似然是 知果求最...

  • 极大似然估计

    现实情况中我们可能会遇到这样的一些例子,需要得到一所高校有车学生的分布情况(假定符合参数为p的伯努利分布),某地区...

  • 极大似然估计

    似然函数 似然函数(likelihood function)是一种关于统计模型中的参数的函数,既然是函数那自变量就...

  • 极大似然估计

    极大似然估计 我们也可以理解为最像估计法或者最可能估计法。 通俗理解:对于一个事件的发生我们的猜测是基于一...

  • 极大似然估计

    1. 什么是似然函数? 本质是关于随机数X的概率密度函数,只不过没有给定参数.概率密度函数反映的是给定值 的事件发...

网友评论

      本文标题:贝叶斯定理与极大似然估计

      本文链接:https://www.haomeiwen.com/subject/ypojcqtx.html