马尔科夫假设、马尔科夫过程、马尔科夫链:
马尔科夫假设:马尔科夫为了简化问题,提出了一种简化的假设,即随机过程中各个状态St的概率分布,只与它的前一个状态St-1有关,即

符合这个假设的随机过程称为马尔科夫过程,也称为马尔可夫链
隐马尔可夫模型是上述马尔科夫链的一个扩展:任一时刻t的状态St是不可见的
在《数学之美》中是这么介绍的:
提出了一个通信模型的例子:

S1,S2,S3从图中就能看出来是发送者,也就是信源发出的信号,o1,o2,o3则是接收者,接收到的信号。
然后提出了一个问题,在通信领域中,如何根据接受端接收到的观测信号o1,o2,o3,...,来推测信号源发送的信息。
用数学公式表达看起来会相对更直观的感受推到过程,只有这样,才不至于在对机器学习学习的过程中,对其中的公式感到发怵。

通过使用贝叶斯公式转换,再巩固一下贝叶斯公式:

根据贝叶斯公式转换后得到如下公式:

对于初学者来说,隐马尔可夫模型是个很重要的模型,但是很多人可能理解起来很困难,实际上,隐马尔可夫模型,并不是一个复杂的模型。
前面提到的隐马尔可夫模型是马尔科夫链的一个扩展,任一时刻t的状态St是不可见的。所以观察者没法通过观察状态序列,来推测转移概率等参数。但是,隐马尔可夫模型在每个时刻t会输出一个符号Ot,而且Ot和St相关而且仅仅和St相关。这个假设被称为独立输出假设。

在《数学之美》中用这个图来表示,隐含的马尔科夫模型。
粗略的来说,就是已知观测序列O,预测状态序列S对应的模型。这里的S是位置的,是隐藏的,是需要推算后得到的。
马尔科夫假设:

独立输出假设:

基于马尔科夫假设和独立输出假设得到如下公式:

这么一步一步的推到过来,大题上应该问题,不大,但是有一个可能还会让人迷惑的点,就是为什么

这里的分母,在最后的模型中被忽略掉了。
其实说起来也比较容易理解,因为这里的场景是根据最后的观测序号o,来推断信源的,所以分母在这里实际上是一个已经确定的常数,在概率计算过程中直接被忽略了。
在数学之美这本书中,明确的给我们做出了说明,真心觉得这本书,可以说是足够的通俗易懂,而且思路清晰,可能和作者强大的背景有关系吧。
围绕隐马尔可夫模型的三个基本问题:
①给定一个模型,如何计算输出序列的概率【Forward-Backword算法】
②给定一个模型,和特定的输出序列,如何找到最可能的状态序列,可以简单理解为前面说的信号源【维特比算法】
③给定足够量的观测数据,如何估计隐马尔可夫模型的参数【模型训练】
具体实现过程,关注我们,会持续更新
网友评论