0. 基本信息
- 题目:Factorized Inference in Deep Markov Models for Incomplete Multimodal Time Series
- 简要介绍:利用深度markov模型进行不完全的时间序列的推断,分解推断。实际上还是一种multimodal temporal fusion的手段。
- 类别:Deep Markov Model
1. 基本模型

- 图中所有的箭头都表示概率传递(用神经网络实现),由于所有的分布均假设为高斯正态分布,所有概率用均值(mean)和方差(variance)表示
, 那么,神经网络的输出就是mean和variance来表示分布。
-
由于HMM是图模型(只存在邻域连接关系),所有的推断都可以进行分解,所以题目中的(Factorized Inference)就是这个意思:
推断的分解.png
- 而每个分解之后的概率分布都是高斯分布(正态分布),高斯分布的乘积(或者除法)也是高斯分布(参考高斯分布的乘积),这下就很好计算,很好进行推断。
2. 模型学习(5个loss)
该模型学习的本质就是学习4种神经网络。这4种神经网络是无法分别拎出来单独训练的。同时可观测的数据只有
,隐变量
是未知的。应用“存在即合理”的原则,
,也就是让我们观测到的
出现的概率尽量的大,变分推断里面去最大化ELBO即可。推断出新的
有两种模式(filter,smooth),所以训练整体的loss有filter ELBO, smooth ELBO。
- filter ELBO
-
smooth ELBO
ELBO(作者是不是在KL前面多写了个Expectation?)
另外,直管的感受就是,filter/smooth一通操作之后的与原来的
之间要相差很小才好,所以又有了 filter reconstruction error, smooth reconstruction error.
- filter error
- smooth error
最后,隐变量的转移还需要满足标准正态分布的假设。所以添加一个正则化性质的约束。
- gaussian_kld
3. 效果点评
- 很难复现作者论文中的结果。
- PoG具有难训练问题
- 这个文章理论很好,可是效果欠佳。
网友评论