为什么贝叶斯统计中后验分布(posterior distorti

作者: WilliamY | 来源:发表于2019-09-25 11:34 被阅读0次

参考:
StackExchange
Variational Inference: A Review for Statisticians

这个问题是变分推断(variational inference)的一个基础问题。很奇怪的是,我没有在中文社区发现这个问题的详细解释。下面通过一个例子,来解释这个问题。

问题描述

符号定义\textbf{x}=x_{1:n}表示观察变量,\textbf{z}=z_{1:m}表示隐变量,它们的联合概率密度为p(\textbf{x}, \textbf{z})
目标:求解条件概率p(\textbf{z}|\textbf{x})。在贝叶斯框架下,这一过程叫做推断,而p(\textbf{z}|\textbf{x})叫做后验概率。
后验概率密度
p(\textbf{z}|\textbf{x})=\frac{p(\textbf{z}, \textbf{x})}{p(\textbf{x})}=\frac{p(\textbf{z}, \textbf{x})}{\int p(\textbf{z}, \textbf{x})d\textbf{z}}
其中p(\textbf{x})被称为“证据”(evidence)
下面的例子用来说明,证据的积分形式通常没有闭式解

例子:混合高斯模型的后验概率估计

设有K个混合分支,分支的均值集合为\mathbf{\mu}=\{\mu_1,...,\mu_K\},这些均值服从高斯分布\mathcal{N}(0,\sigma^2),其中参数\sigma^2表示方差。采样K次得到\mathbf{\mu}
每个观察数据x_i的产生过程如下:从类别{1,...,K}中选出一个分支,记为c_i,其数学形式为one-hot(一个长为K的向量,其中一位是1,其余位是0)。从(另一个)高斯分布\mathcal{N}({c_i}^T\mu,1)采样,得到x_i。连续采样n次。
即:
\mu_k \sim \mathcal{N}(0,\sigma^2),其中k=1,...,K
c_i \sim Categorical(\frac{1}{K},...,\frac{1}{K}),其中i=1,...,n
x_i|c_i,\mu \sim \mathcal{N}({c_i}^T\mu,1),其中i=1,...,n
联合概率密度为:
p(\mathbf{\mu},\textbf{c},\textbf{x})=p(\mathbf{\mu})\prod_{i=1}^{n}p(c_i)p(x_i|c_i,\mathbf{\mu})
隐变量\mathbf{z}=\{\mathbf{\mu},\mathbf{c}\}
证据为:
p(\textbf{x})=\int p(\mathbf{\mu})\prod_{i=1}^{n}\sum_{c_i}p(c_i)p(x_i|c_i,\mathbf{\mu})d\mu
=\int p(\mu_1,...\mu_K)\prod_{i=1}^{n}\sum_{c_i}p(c_i)p(x_i|c_i,\mu_1,...\mu_K)d\mu_1d\mu_2...d\mu_K
上式中,每一个\mu_k都无法从连乘项里分离出来,所以计算该积分的复杂度为\mathcal{O}(K^n),为K的指数级别的复杂度。所以一般没有闭式解(intractable)。
(想象某个场景,在10个混合分支中,采样100个点,计算该积分的复杂度高达10^{100}!)

ELBO(证据下界)

对目标p(\mathbf{z}|\mathbf{x})求解,一味蛮干是行不通的。通行的做法有两种,要么通过蒙特卡洛法近似,要么通过变分推断近似。这里介绍后一种。
我们利用容易处理的“代理人”函数q(\mathbf{z})近似p(\mathbf{z}|\mathbf{x})
q^*(z)=armin_{q(z)\in \mathcal{Q}} KL[q(z)||p(\mathcal{z}|\mathcal{x})]
其中KL表示相对熵,由定义,
KL[q(z)||p(\mathcal{z}|\mathcal{x})]=\mathbb{E}[\log q(\mathcal{z})]-\mathbb{E}[\log p(\mathcal{z}|\mathcal{x})]=\mathbb{E}[\log q(\mathcal{z})]-\mathbb{E}[\log p(\mathcal{z},\mathcal{x})]+\log p(\mathcal{x})
由此可见,
\mathbb{E}[\log p(\mathcal{z},\mathcal{x})]-\mathbb{E}[\log q(\mathcal{z})]=\log p(\mathcal{x})-KL[q(z)||p(\mathcal{z}|\mathcal{x})] \leq \log p(\mathcal{x})
定义
ELBO(q) =\mathbb{E}[\log p(\mathcal{z},\mathcal{x})]-\mathbb{E}[\log q(\mathcal{z})]
最大化ELBO就是最小化KL[q(z)||p(\mathcal{z}|\mathcal{x})],成功避开计算p(\mathcal{z}|\mathcal{x})

相关文章

  • 为什么贝叶斯统计中后验分布(posterior distorti

    参考:StackExchangeVariational Inference: A Review for Stati...

  • 韩明《贝叶斯统计学及其应用》摘选

    先验分布和后验分布 先验分布和后验分布是贝叶斯统计学基础理论部分的重要内容。 经典学派规定统计推断是根据样本信息对...

  • 贝叶斯深度学习(bayesian deep learning)

    一、贝叶斯公式 其中,p(z|x)被称为后验概率(posterior),p(x,z)被称为联合概率,p(x|z) ...

  • VI

    varational inference 背景 在贝叶斯框架下,推断一般指的是后验分布,即,我们并不知道后验分布的...

  • 共轭先验、共轭分布——为LDA做准备

    概率论中两大学派: 频率学派和贝叶斯学派。先验概率,后验概率,共轭分布和共轭先验是贝叶斯学派中的几个概念。原因是贝...

  • LDA主题模型

    一、几个基础概念 1、贝叶斯理论:先验分布+数据(似然)=后验分布2、二项分布、Beta分布与共轭分布先验分布和后...

  • 概率机器人-高斯滤波

    高效的贝叶斯滤波算法,用多元高斯分布表示后验概率 计算正确的后验概率,需要满足三种假设: 初始置信度必须是高斯分布...

  • 朴素贝叶斯

    贝叶斯是生成模型贝叶斯做了条件独立性假设贝叶斯的后验概率最大是由期望风险最小化得出的 为什么要做拉普拉斯变换? 拉...

  • 贝叶斯公式和隐马尔可夫模型(2)

    在贝叶斯统计中,一个随机事件或者一个不确定事件的后验概率是在考虑和给出相关证据或数据后所得到的条件概率。同样,后验...

  • 机器学习面试题集合

    朴素贝叶斯 朴素贝叶斯核心思想利用先验概率得到后验概率,并且最终由期望风险最小化得出后验概率最大化,从而输出让后验...

网友评论

    本文标题:为什么贝叶斯统计中后验分布(posterior distorti

    本文链接:https://www.haomeiwen.com/subject/bjuiuctx.html