美文网首页
文章点评CV9-Factorized Inference in

文章点评CV9-Factorized Inference in

作者: 闪电侠悟空 | 来源:发表于2019-12-15 14:39 被阅读0次

0. 基本信息

  • 题目:Factorized Inference in Deep Markov Models for Incomplete Multimodal Time Series
  • 简要介绍:利用深度markov模型进行不完全的时间序列的推断,分解推断。实际上还是一种multimodal temporal fusion的手段。
  • 类别:Deep Markov Model

1. 基本模型

2019-09-22 14-59-26 的屏幕截图.png
  • 图中所有的箭头都表示概率传递(用神经网络实现),由于所有的分布均假设为高斯正态分布,所有概率用均值(mean)和方差(variance)表示(\mu,\sigma^2), 那么,神经网络的输出就是mean和variance来表示分布。
  • 由于HMM是图模型(只存在邻域连接关系),所有的推断都可以进行分解,所以题目中的(Factorized Inference)就是这个意思:


    推断的分解.png
  • 而每个分解之后的概率分布都是高斯分布(正态分布),高斯分布的乘积(或者除法)也是高斯分布(参考高斯分布的乘积),这下就很好计算,很好进行推断。

2. 模型学习(5个loss)

该模型学习的本质就是学习4种神经网络\{x_t\rightarrow z_t; z_t\rightarrow x_t; z_t\rightarrow z_{t+1}; z_{t+1}\rightarrow z_t\}。这4种神经网络是无法分别拎出来单独训练的。同时可观测的数据只有x_{1:T},隐变量z_{1:T}是未知的。应用“存在即合理”的原则,\theta^*=arg \max_\theta p_\theta(x),也就是让我们观测到的x出现的概率尽量的大,变分推断里面去最大化ELBO即可。推断出新的\hat{x} 有两种模式(filter,smooth),所以训练整体的loss有filter ELBO, smooth ELBO。

  • filter ELBO
  • smooth ELBO


    ELBO(作者是不是在KL前面多写了个Expectation?)

另外,直管的感受就是,filter/smooth一通操作之后的\hat{x}与原来的x之间要相差很小才好,所以又有了 filter reconstruction error, smooth reconstruction error.

  • filter error
  • smooth error

最后,隐变量的转移还需要满足标准正态分布的假设。所以添加一个正则化性质的约束。

  • gaussian_kld

3. 效果点评

  • 很难复现作者论文中的结果。
  • PoG具有难训练问题
  • 这个文章理论很好,可是效果欠佳。

相关文章

网友评论

      本文标题:文章点评CV9-Factorized Inference in

      本文链接:https://www.haomeiwen.com/subject/mrxuuctx.html