自从接触深度学习后,每每遇到相关数学公式都头疼。其中变分推断出现的频率之多,让我一见它到便跳过直接看与其相关的结果。所以,经常处于模模糊糊半懂不懂的状态,让我十分痛苦。于是,这几天我便想结束这种痛苦,故仔细的看了相关资料,并作如下小结。
变分推断简单来说便是需要根据已有数据推断需要的分布;当
不容易表达,不能直接求解时,可以尝试用变分推断的方法。即,寻找容易表达和求解的分布
,当
和
的差距很小的时候,
就可以作为
的近似分布代替
。
数学推导
学过概率论的人一般都会知道贝叶斯公式:同理,
其中
被称作后验概率,
被称为似然度,
则是先验概率。经过简单的交换可得:
对(1.3)式左右两侧取底为的对数,并且右式同除
:
对于式(1.4)两边取期望:
计算到此,我们要思考一个问题:何时ELOB达到最大值?这个问题其实很简单,由于KL散度本身大于等于0,所以便是ELOB的上界。
我们不是讨论变分推断吗,为什么讨论起了呢?其实上面我们提到了用
去逼近
,所以式(1.4)从而引进了
。而衡量两个分布的相似程度的一种标准便是
散度,
的值越小表示两种分布越相似。什么时候最小呢?只要
便是最小,这个条件看似说明了一切,但是我们只知道
不知道
的分布啊,没法确定两者是否为0,所以
便成了一个鸡肋的条件,食之无味,弃之可惜啊。这时候救世主
出现了,她的光辉照耀世界~(中二ing,笑)。
式(1.5)分为两部分,既然我们没法确定散度,我们只好利用
(
可以看做是
的函数——即函数的函数(泛函,本学渣只听说过没有正式学习过))。既然
要得到最小,那么就要设法使
到达最大。
是时候展示真正的技术了——
下面证明的上界:
以上我们知道了通过使得最大化的这种间接的方式从而使得
散度尽可能的小,那么接下来便是介绍如何使得
尽可能的趋近其上界。
假设={
},现实生活中大多数
,但是我们选择
时可以选我们知道到的,简单的,独立同分布的概率分布(选非独立同分布的我也不拦着)
。选好了
,好戏也要开场了。
下面证明变量为两个时,可得:
推至N个时,得证。当
,即只对某个
感兴趣时,
可简写为:
再令:可得:
推导到这,豁然开朗。原来最后也要化为一个
散度,故最大值为0当且仅当
。最后,简单说明如何获得稳定
的迭代过程:
经过多次算法迭代,收敛于固定值,从而得到最大
,进而确定所需
散度与
分布。
综述
变分推断是利用已知分布通过调整使其符合我们需要却难以用公式表达的分布。由和
散度的关系,通过得到
的上界间接获得
散度。对于
的上界,又可以通过转化为相关的
散度求解。
用一张图来表示分布的变化。

文中配图来源于《徐亦达机器学习》
网友评论