EM算法作为数据挖掘领域十大经典算法之一,在统计学习领域也有诸多应用。EM算法(Expectation-maximization algorithm,期望极大算法)在统计中被用于寻找依赖于不可观察的隐性变量的概率模型中参数的最大似然估计。
期望极大算法经过两个步骤交替进行计算,第一步是计算期望(E),利用对隐藏变量的现有估计值,计算其最大似然估计值;第二步是极大化(M),极大化在E步上求得的最大似然值来计算参数的值。M步上找到的参数估计值被用于下一个E步计算中,这个过程不断交替进行。
1、EM算法引入
在引入EM算法之前,我们先回顾一下最大似然估计方法。
(https://web.stanford.edu/class/cs109/lectureNotes/21%20-%20MLE.pdf)
最大似然法(MLE)的思想很朴素,首先假设参数为,然后写出在下生成当前各独立样本的可能性(Likelihood),上图解释了这里的Likelihood是什么含义——联合概率(离散)或联合概率密度(连续)。然后我们求使得这个Likelihood最大的参数值作为我们的参数估计。
最大似然法可以发挥作用的隐含前提是我们可以观测到各独立样本,且这些样本就是从服从依赖于的分布中生成的。
那么EM算法是用来解决什么问题呢?EM算法用来解决既含有观测变量又含有隐变量或潜在变量的参数估计问题。所谓隐变量,就是无法直接观测到的变量,但它又与可观测变量的生成密切相关,比如混合高斯模型中某个变量(样本)属于各个高斯成分的概率就是隐变量。《统计学习方法》中举了一个很生动的例子:
假设有3枚硬币,分别记作A,B,C。这些硬币正面出现的概率分别是 ,p和q。进行如下掷硬币试验:先掷硬币A,根据其结果选出硬币B或硬币C,正面选硬币B,反面选硬币C;然后掷选出的硬币,掷硬币的结果出现正面记作1,出现反面记作0;独立地重复n次试验(这里,n=10),观测结果如下:
假设只能观测到掷硬币的结果,不能观测掷硬币的过程。问如何估计三硬币正面出现的概率,即三硬币模型的参数。
下面我们试着写出其似然函数。记是模型参数,是观测变量,表示一次实验的观测结果是1或0,是隐变量,表示为观测到的掷硬币的结果。则Likelihood可写作:
观测数据未观测数据则观测数据的似然函数为:
《统计学习方法》一书上说这个似然函数的极大似然估计是没有解析解的,因此我们就需要用更巧妙的方法来逼近这个解。EM算法就是通过逼近的过程来解决这样的问题。
2、EM算法导出
现在我们把问题从三硬币问题中抽象出来:表示观测变量,表示隐随机变量,和一起称为完全数据,称为不完全数据。表示模型参数。给定观测数据,我们的目标是极大化关于参数的对数似然函数,即极大化:
这一极大化的主要困难在于:
- 上式中有未观测数据
- 上式中包含和(或积分)的对数
既然不能直接极大化似然函数,那么我们就希望可以通过某种迭代的方式使得不断增大。假设在第次之后的估计值为,则我们希望新估计值满足:
为此,考虑两者之差并利用Jensen不等式得到其下界:
从而有:
定义这个下界为:
则有:
若我们取可以得到:
因此任何可以使增大的,都可以使增大。为了使有尽可能大的增长,我们应该选择使得达到极大的值,即:
下面我们省去对的极大化而言是常数的项:
我们定义,则:
从而我们就可以迭代地更新参数,使得对数似然函数不断增大。总结成EM算法如下:
(1)选择模型参数初始值
(2)E步:计算
(3)M步:
(4)重复E步M步直至收敛。
我们看到(4)默认了EM算法的收敛性,下面我们来证明这一点。
3、EM算法的收敛性
为了证明EM算法的收敛性,我们首先说明由EM算法估计得到的似然函数序列是单调递增的,即:
由
取对数有
令
则对数似然函数可以写成:
从而
我们知道使得达到极大,因此
又
故
因此,如果有上界,则收敛到某个值。
网友评论