美文网首页
近期论文阅读笔记20190501-0515

近期论文阅读笔记20190501-0515

作者: 阮恒 | 来源:发表于2019-05-27 21:27 被阅读0次

    一、See Better Before Looking Closer: Weakly Supervised Data Augmentation Network for Fine-Grained Visual Classification

    该论文还未发表。论文采用一种数据增强方式提高细粒度分类的效果。

    具体数据增强原理:
    生成类似saliency map的attention map,然后利用attention map对原始图像作pixel增强或减弱。一张原始图像对应两张数据增强后的图像。

    相关pytorch代码位于WS-DAN.PyTorch。代码作者称在FGVC 6 dataset上的表现优于DFL和RA。

    二、Semantically tied paired cycle consistency for zero-shot sketch-based image retrieval

    结构图

    该论文发表于CVPR2019.
    论文提出了利用zero-shot learning方法进行基于轮廓的图像检索。

    zero-shot learning 方法使用了网络上的side information(关于图片的文本等信息),但是论文并没有详细说明这一方法的具体操作。

    训练时将image、sketch都映射到S(side information)空间。利用GAN进行训练。然后又从S空间映射回图像和sketch。

    测试时image、sketch都映射到S(side information)空间。然后在S空间进行image retrieval。

    该论文的代码位于github

    三、Zero-Shot Learning with Attribute Selection

    该论文发表于AAAI 2018.

    该论文核心思想是attribute的质量对于ZSL任务有重要影响。因此应该筛除不合理的attribute。

    对attribute的评价指标有二:

    1. Information amount: which indicates whether the attribute can help to distinguish the classes.

    计算方法:

    • 对于binary attribute使用熵。
      For a binary attribute, we use p to denote the ratio of classes having this attribute and 1 − p to denote the ratio of other classes. Then we can use entropy −p*log(p).
      熵很小意味着几乎所有的类别都有这项attribute,所以该attribute对于分类的有效性不高。

    • 对于continuous attribute,使用variance

    2. The predictability of attributes: whether the attribute is predictable for the input image.
    • 有一些attribute比如'inactive', 'smelly' 很难从图中分辨出来,所以predict precision很低。

    本文采用两种选择attribute的方法:

    1. 直接删除熵很小而且预测准确率很小的attribute。
    2. 将ZSL任务和熵、预测准确率进行联合训练。

    四、I read, I saw, I tell: Texts Assisted Fine-Grained Visual Classification

    该论文发表于ACM MM 2018

    结构图

    改论文实用的方法和我们的multi-task network差不多,利用输入图像生成attribute。然后将attribute 进行embedding之后分类。

    相关文章

      网友评论

          本文标题:近期论文阅读笔记20190501-0515

          本文链接:https://www.haomeiwen.com/subject/hjosaqtx.html