美文网首页
【论文阅读】Domain Generalization with

【论文阅读】Domain Generalization with

作者: 昭君姐 | 来源:发表于2019-07-21 21:28 被阅读0次

    URL:
    http://openaccess.thecvf.com/content_cvpr_2018/papers/Li_Domain_Generalization_With_CVPR_2018_paper.pdf

    TL;DR

    CVPR2018的一篇domain泛化的文章。对多个源域数据,学习通用的特征表示,希望能应用于未见过的目标域样本。


    示例图

    方法

    方法示意图
    • Adversarial Autoencoder
      如上图,首先将训练集划分为K个域。输入x的隐空间输出为h,编码解码是q(h|x)q(x|h)。本文希望h的分布q(h)去学习某个先验分布p(h) , 其中q(\mathbf{h})=\int_{\mathbf{x}} q(\mathbf{h} | \mathbf{x}) p(\mathbf{x}) d \mathbf{x}。本文用gan的方法进行约束,为了解决gan收敛困难的问题,本文将log函数改为了L2,loss函数如下:
      \mathcal{J}_{\mathrm{gan}}=\mathbb{E}_{\mathbf{h} \sim p(\mathbf{h})}\left[D(\mathbf{h})^{2}\right]+\mathbb{E}_{\mathbf{x} \sim p(\mathbf{x})}\left[(1-D(Q(\mathbf{x})))^{2}\right]

    • MMD-AAE
      对于AE,我们加上重建损失\mathcal{L}_{\mathrm{ae}}=\sum_{l=1}^{K}\left\|\hat{\mathbf{X}}_{l}-\mathbf{X}_{l}\right\|_{2}^{2}
      此外,对K个源域数据做MMD,公式如下:
      \begin{aligned} \operatorname{MMD}\left(\mathbf{H}_{l}, \mathbf{H}_{t}\right)^{2}=&\left\|\frac{1}{n_{l}} \sum_{i=1}^{n_{l}} \phi\left(\mathbf{h}_{l_{i}}\right)-\frac{1}{n_{t}} \sum_{j=1}^{n_{t}} \phi\left(\mathbf{h}_{t_{j}}\right)\right\|_{\mathcal{H}}^{2} \\=& \frac{1}{n_{l}^{2}} \sum_{i=1}^{n_{l}} \sum_{i=1}^{n_{l}} k\left(\mathbf{h}_{l_{i}}, \mathbf{h}_{l_{i}^{\prime}}\right)+\frac{1}{n_{t}^{2}} \sum_{j=1}^{n_{t}} \sum_{j^{\prime}=1}^{n_{t}} k\left(\mathbf{h}_{t_{j}}, \mathbf{h}_{t_{j}^{\prime}}\right) \\ &-\frac{2}{n_{l} n_{t}} \sum_{i=1}^{n_{l}} \sum_{j=1}^{n_{t}} k\left(\mathbf{h}_{l_{i}}, \mathbf{h}_{t_{j}}\right) \end{aligned}

    • 总的损失函数如下
      \min _{C, Q, P} \max _{D} \mathcal{L}_{\mathrm{err}}+\lambda_{0} \mathcal{L}_{\mathrm{ae}}+\lambda_{1} \mathcal{R}_{\mathrm{mmd}}+\lambda_{2} \mathcal{J}_{\mathrm{gan}}

    实验

    • Minist实验结果


      Minist实验结果
    • 各组件效果


      各组件效果
    • 不同先验分布的效果,最好的分布为Laplace(1/2)


      不同先验分布的效果

    相关文章

      网友评论

          本文标题:【论文阅读】Domain Generalization with

          本文链接:https://www.haomeiwen.com/subject/tdvvlctx.html