美文网首页NLP
自然语言处理——6.4 HMM之 后向算法

自然语言处理——6.4 HMM之 后向算法

作者: SpareNoEfforts | 来源:发表于2018-10-04 13:09 被阅读0次

    1. 基本思想

    定义后向变量{\beta _T}(i)是在给定了模型\mu=(A, B, \pi)和假定在时间t状态为S_i的条件下,模型输出观察序列O=O_1O_2 …O_T的概率:
    {\beta _T}(i)=p(O=O_1O_2 …O_T|q_t=S_i,\mu) ……(公式6.15)

    2. 算法求解

    与前向变量一样,运用动态规划计算后向量:
    (1)从时刻tt+1,模型由状态S_i转移到状态S_j,并从S_j输出O_{t+1}
    (2)在时间t+1,状态为S_j的条件下,模型输出观察序列O_{t+2}O_{t+3} …O_T

    第一步的概率:{a_{ij}} \times {b_j}({O_{t + 1}})
    第二步的概率按后向变量的定义为: {\beta _{T + 1}}(j)
    于是,有归纳关系:
    {\beta _T}(i) = [\sum\limits_{j = 1}^N {{b_j}({O_{t + 1}})} {a_{ij}}] \times {\beta _{t + 1}}(j) ……(公式6.16)
    归纳顺序:{\beta _T}(x),{\beta _{T - 1}}(x),...,{\beta _1}(x)( x 为模型的状态)

    算法图解

    3. 算法描述

    相关文章

      网友评论

        本文标题:自然语言处理——6.4 HMM之 后向算法

        本文链接:https://www.haomeiwen.com/subject/vejxaftx.html