美文网首页NLP
自然语言处理——6.4 HMM之 后向算法

自然语言处理——6.4 HMM之 后向算法

作者: SpareNoEfforts | 来源:发表于2018-10-04 13:09 被阅读0次

1. 基本思想

定义后向变量{\beta _T}(i)是在给定了模型\mu=(A, B, \pi)和假定在时间t状态为S_i的条件下,模型输出观察序列O=O_1O_2 …O_T的概率:
{\beta _T}(i)=p(O=O_1O_2 …O_T|q_t=S_i,\mu) ……(公式6.15)

2. 算法求解

与前向变量一样,运用动态规划计算后向量:
(1)从时刻tt+1,模型由状态S_i转移到状态S_j,并从S_j输出O_{t+1}
(2)在时间t+1,状态为S_j的条件下,模型输出观察序列O_{t+2}O_{t+3} …O_T

第一步的概率:{a_{ij}} \times {b_j}({O_{t + 1}})
第二步的概率按后向变量的定义为: {\beta _{T + 1}}(j)
于是,有归纳关系:
{\beta _T}(i) = [\sum\limits_{j = 1}^N {{b_j}({O_{t + 1}})} {a_{ij}}] \times {\beta _{t + 1}}(j) ……(公式6.16)
归纳顺序:{\beta _T}(x),{\beta _{T - 1}}(x),...,{\beta _1}(x)( x 为模型的状态)

算法图解

3. 算法描述

相关文章

网友评论

    本文标题:自然语言处理——6.4 HMM之 后向算法

    本文链接:https://www.haomeiwen.com/subject/vejxaftx.html