美文网首页
Hidden Markov Model (HMM)定义

Hidden Markov Model (HMM)定义

作者: chaaffff | 来源:发表于2017-09-18 09:17 被阅读0次

    隐马尔可夫模型(Hidden Markov Model,HMM)是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析,例如模式识别

    正常的马尔可夫模型中,状态对于观察者来说是直接可见的。这样状态的转换概率便是全部的参数。而在马尔可夫模型中,状态并不是直接可见的,但受状态影响的某些变量则是可见的。每一个状态在可能输出的符号上都有一概率分布。因此输出符号的序列能够透露出状态序列的一些信息。

    坊间有流传过这么一段《胡适留学日记》:

    7月4日: 新开这本日记,也为了督促自己下个学期多下些苦功。先要读完手边的莎士比亚的《亨利八世》。

    7月13日: 打牌。

    7月14日: 打牌。

    7月15日: 打牌。

    7月16日: 胡适之啊胡适之!你怎么能如此堕落!先前订下的学习计划你都忘了吗?子曰:“吾日三省吾身。”不能再这样下去了!

    7月17日: 打牌。

    7月18日: 打牌。

    且不论真假,突然觉得倒是很合适用来作为 Hidden Markov Model (HMM) 的例子来讲的,因为和书上课上讲的例子,天气呀遛狗啊还是马克杯啊什么的,果然还是这个比较好玩一点啊。

    假设小明有很严重的拖延症,在每一天他会处于没有拖延症的正常状态 Normal、以及不同程度的拖延症 Light、Heavy 和 Critical 状态中的一种。每天的状态会随着前一天所处的状态不同而发生改变,转移方式如图(fig: 1)所示。

    简单来说:小明一开始会处于正常状态,不过由于他拖延症非常严重,第二天毫无悬念地会进入轻度拖延症状态。在轻度拖延症状态中有很大的概率 (0.7) 会进入重度拖延症状态或者以 0.3 的概率维持在轻度拖延症状态中。一旦进入到重度拖延症状态,他会以 0.8 的概率一直保留在那个状态,或者有比较小的几率 (0.2) 进入“致命拖延”状态。在“致命拖延”状态中度过一天之后小明会幡然醒悟,下定决心重新做人,并在第二天成功回复正常状态。然后……周而复始、世袭罔替……

    图 1

    小明的拖延症状态转移图

    不过,小明的拖延症状态是“隐藏”在他大脑里的(这也是 HMM 中 Hidden 的由来),他自己也搞不清楚。但是我们知道他在不同的状态下会做什么样的事情。

    小明在不同状态下打牌的概率

    状态打牌的概率不打牌的概率

    Normal01

    Light0.30.7

    Heavy0.80.2

    Critical10

    虽然我们没法把小明的脑袋打开看看里面的寄存器是什么状态,但是我们可以偷看小明的日记观察小明的日常生活。通过这些历史数据,我们可以做这样一些事情:

    给定小明某一段时间的日记(打牌、不打牌),计算该日记是否是伪造的概率。更确切地说,计算该日记所记录的日常生活是来自于小明的拖延症模型的概率。

    给定小明某一段时间的日记,推断出每一天小明最有可能处在什么状态。

    另外,如果我们并不事先知道小明的拖延症模型(状态转移和不同状态下的行为),如果有足够多的历史数据(日记),我们还可以做的第三件事情就是:

    估计小明的拖延症模型参数。

    这三件事正好对应了 HMM 中的三个任务,分别是 Scoring、Matching (或者 Decoding)、Traing (或者 Learning)。对应这三个任务分别有三个算法:

    Scoring:Forward-Backward 算法,是 Graphical Model 里的Sum-Product 算法的特例。

    Matching:Viterbi 算法,是 Graphical Model 里的 Max-Product 算法的特例。

    Training:Baum-Welch 算法,是EM 算法的特例。

    熟悉 Graphical Model 的同学肯定一下子能看出来,前两个问题属于 Inference 问题,分别就是算 Marginal 和 MAP 推断;而最后一个问题则是 Learning 问题,之所以 EM 算法也是因为状态是没有观察到的隐变量。由于三个问题都定义得非常清楚,而且也有非常高效的算法进行计算,加之 HMM 模型的适用范围非常广,所以在诸如语音识别、自然语言处理、机器翻译、基因序列对齐、机器人定位等等各种各样的应用中得到广泛采用。虽然它提出来也已经有相当年头了,并且也有自己的局限和问题,但是,比如说,现在的 state-of-the-art 的语音识别系统仍然主要是基于 HMM 框架的。

    具体来说,HMM 可以定义为一个三元组。其中用于描述初始状态的分布,在小明的例子里初始状态是 deterministic 地位于“Normal”状态的,General 的 HMM 并不要求这样。则是状态转移矩阵,表示在时刻处于状态的情况下,时刻转移到状态的概率:

    注意时刻的状态分布只依赖于时刻的状态,而与更之前的状态无关 (independent)(更确切地说,是在给定了的情况下与更早的等状态无关,亦即是 Conditional Independence。条件独立性是 Graphical Model 里的核心概念。下面关于“观察值”的独立性类似。),这类的性质通常叫做Markov Property,这也是为什么 HMM 叫做“Markov Model”的原因。除了状态有这个性质之外,每个时刻所得到的观察值也有类似的性质:时刻的观察值(打牌还是不打牌)只依赖于时刻的状态,并由三元组中的来决定,具体来说

    对于小明的例子,我们实际上是用状态转移图来给出了和,并用表格的形式给出了。由于 HMM 总是对应一个 sequence (的状态或者观察值),所以另一个非常常见的 HMM 的表达方式是用每个时刻的对应的状态和观察值的随机变量的 Graphical Model 来表示,例如我们直接从 Wikipedia 上盗用一个图(它这里用表示状态,表示观察值):

    从这个 Graphical Model 上能更加清楚地看出各个随机变量之间的条件独立性,也就是 Markov 性质。不过不要忘记的是在这个图模型中每个横向箭头所对应的转移概率函数全都是一样的,同样,纵向箭头所对应的观察值生成概率分布也是所有时刻公用的。

    最后,假设胡适先生上面的日记日期是连续的话,我用 Viterbi 算法算了一下,最可能的状态 sequence 是:他进入了“重度拖延症”状态之后就再也没能出来过。^_^bb嘛,也许是模型参数设得不够好呢?

    相关文章

      网友评论

          本文标题:Hidden Markov Model (HMM)定义

          本文链接:https://www.haomeiwen.com/subject/ceuvsxtx.html