美文网首页
Papers about generating visual e

Papers about generating visual e

作者: 阮恒 | 来源:发表于2019-11-07 21:23 被阅读0次

    [1] Explanations based on the Missing: Towards Contrastive Explanations with Pertinent Negatives
    这篇文章用提出了Contrastive Explanations with Pertinent Negatives,提供了一个解释的新视角:这幅图里面没有什么,所以没有被分错。不过这个之前在LISA的语义解释里面讲到过。这一次是visual explanation。
    作者将实验做在了minist数据集上。


    实验图

    如图所示,作者指出红色的像素是pertiment negatives, 可以改变网络的分类结果。蓝色像素是那些能够尽量使网络分类结果不变的像素。
    [2] Generating Contrastive Explanations with Monotonic Attribute Functions
    本篇是【1】的后续,因为【1】只能做在minist这种binary的数据集上,对彩色图像无力。所以作者提出了一个概念: ''how to add pertiment negatives on color images.''
    作者训练了N个attribute分类器,利用VAE改变图像中某些超像素,如果超像素的改变导致attribute分类结果改变了,就说明we add something to the image. 然后作者选出那些能够改变尽量少的attribute分类结果但是使得图像分类结果改变的超像素(有点绕),指出这些超像素就是Pertiment negatives.

    对于Pertinent Positives,作者的想法和lime一样,找到尽量少的超像素,使其能够导致相同的分类结果。

    【2】Anchors: High-Precision Model-Agnostic Explanations

    3. Interpretability Beyond Feature Attribution:

    Quantitative Testing with Concept Activation Vectors (TCAV)
    -- Explain the model towards the effects of some important concepts, such as stripes to zebra.
    -- Evaluate the method using images with a caption on the pixels. This is the ancestor of [1]

    4. 【CVPR2019】Multimodal Explanations by Predicting Counterfactuality in Videos

    利用attribute和bounding box对视频分类进行解释。
    优点:生成的是visual+linguistic的解释,利用了counterfactual, 即没有被分到A类因为没有attriA。
    缺点:使用了bounding box进行框定,如果用的是自解释的方法会更好。


    Screen Shot 2019-09-09 at 9.23.24 AM.png

    5. 【CVPR2019】Learning to Explain with Complemental Examples

    和4同一个作者,唉,,,,,
    利用attributes解释分类,同时选出counterfactual例子证明为什么不是另一类。


    Screen Shot 2019-09-09 at 10.25.52 AM.png

    6. 【CVPR2019】Attention Branch Network:Learning of Attention Mechanism for Visual Explanation

    这篇文章将CAM和网络结构相结合,然后称提高了分类准确率。这就是高配版的戴威论文。。。
    实验有三个,cifar,ImageNet和face attribute prediction
    这个face attribute prediction值得说一下,这个实验是做在面部属性识别上的,而且面部图片有

    7. 【CVPR2019】Interpretable and Fine-Grained Visual Explanations for

    Convolutional Neural Networks

    方法与RISE类似,利用含有两种不同object的image进行测试,确定模型定位的能力。
    利用医学图像进行测试,确定模型定位的能力。
    利用ImageNet做deletion实验。

    8. Real Time Image Saliency for Black Box Classifiers

    NIPS2017

    9. 综述Techniques for Interpretable Machine Learning

    相关文章

      网友评论

          本文标题:Papers about generating visual e

          本文链接:https://www.haomeiwen.com/subject/abbosctx.html