美文网首页
2019-11-05机器学习——EM算法推导

2019-11-05机器学习——EM算法推导

作者: bcl_hx | 来源:发表于2019-11-05 14:28 被阅读0次

什么是EM 算法

在介绍EM算法前,我们先了解一下最大似然估计(MLE)。MLE是利用已知的样本结果去反推最有可能导致这样结果的参数值,即在给定的观测变量下去估计参数值。但在实际中除了观测变量还会存在隐变量,因为隐变量未知,因此无法通过最大似然估计直接求参数值。

EM算法(期望最大)为迭代算法,是一种从不完全数据或有数据丢失的数据集(存在隐变量)中求解概率模型的最大似然估计方法。

广义上的隐变量:主要就是指不能被直接观察到,但是对系统的状态和能观察到的输出存在影响的一种东西。

EM算法步骤

EM算法推导过程中会用到MLE法估计参数。求MLE估计值的一般步骤如下:

(1)写出似然函数,并取对数。

(2)求导,另导数为0,得似然方程。

(3)解方程,得到参数即为所求。

EM算法通过引入隐变量,使用MLE(极大似然估计)进行迭代求解参数。通常引入隐含变量后会有两个参数,EM算法首先会固定其中的第一个参数,然后使用MLE计算第二个变量值;接着通过固定第二个变量,再使用MLE估测第一个变量值,依次迭代,直至收敛到局部最优解。

(1)选择参数θ的初始值θ(0),开始迭代。

(2)E步:记θ(t)次迭代参数为θ的估计值,在第t+1次迭代的E步,计算(基于当前求得的模型参数θ猜测隐变量的期望值,因此E步也称为期望步)

(3)M步:求使得函数极大化的θ值,确定第t+1次迭代的参数的估计值θ(t+1)

(4)重复2, 3步直至收敛。

EM算法收敛性证明

在介绍收敛性的证明方法前,我先介绍下相对熵(KL散度)的概念及其性质。

下面推导收敛性:

​EM算法公式推导

相关文章

  • 2019-11-05机器学习——EM算法推导

    什么是EM 算法 在介绍EM算法前,我们先了解一下最大似然估计(MLE)。MLE是利用已知的样本结果去反推最有可能...

  • EM算法|机器学习推导系列(十二)

    一、概述 假设有如下数据: :observed data:unobserved data(latent varia...

  • LDA 与 LSA、PLSA、NMF相比

    “pLSA模型的作者Thomas Hoffmann提出的机器学习算法是EM。EM是各种机器学习inference算...

  • EM算法及实现

    周志华老师在《机器学习》里这样评价 EM算法:EM算法是最常见的隐变量估计方法,在机器学习里有着极为广泛的用途,例...

  • EM算法推导

    推导EM算法,并证明收敛性。 Jensen’s inequality 定理:若是凸函数,是随机变量,我们有: 若是...

  • python数据分析与机器学习(Numpy,Pandas,Mat

    机器学习怎么学? 机器学习包含数学原理推导和实际应用技巧,所以需要清楚算法的推导过程和如何应用。 深度学习是机器学...

  • <机器学习> EM算法

    文章参考来源: CS229和PRML中关于EM的推导的过程。 文章内容: 1. 不考虑数据点独立性的EM算法 E步...

  • 机器学习:EM 算法

    EM 算法(Expectation Maximization 期望最大化)是一种迭代算法,用于含有隐变量的概率模型...

  • EM 算法

    参考: 从最大似然到EM算法浅解 (EM算法)The EM Algorithm EM算法及其推广学习笔记 EM算法...

  • 再学习EM算法

    EM 算法是十大经典的机器学习算法,【PS:MC是二十世纪十大算法】 回顾下经典的EM算法,对其理解加深 1. 学...

网友评论

      本文标题:2019-11-05机器学习——EM算法推导

      本文链接:https://www.haomeiwen.com/subject/pggsbctx.html