[1] Explanations based on the Missing: Towards Contrastive Explanations with Pertinent Negatives
这篇文章用提出了Contrastive Explanations with Pertinent Negatives,提供了一个解释的新视角:这幅图里面没有什么,所以没有被分错。不过这个之前在LISA的语义解释里面讲到过。这一次是visual explanation。
作者将实验做在了minist数据集上。
实验图
如图所示,作者指出红色的像素是pertiment negatives, 可以改变网络的分类结果。蓝色像素是那些能够尽量使网络分类结果不变的像素。
[2] Generating Contrastive Explanations with Monotonic Attribute Functions
本篇是【1】的后续,因为【1】只能做在minist这种binary的数据集上,对彩色图像无力。所以作者提出了一个概念: ''how to add pertiment negatives on color images.''
作者训练了N个attribute分类器,利用VAE改变图像中某些超像素,如果超像素的改变导致attribute分类结果改变了,就说明we add something to the image. 然后作者选出那些能够改变尽量少的attribute分类结果但是使得图像分类结果改变的超像素(有点绕),指出这些超像素就是Pertiment negatives.
对于Pertinent Positives,作者的想法和lime一样,找到尽量少的超像素,使其能够导致相同的分类结果。
【2】Anchors: High-Precision Model-Agnostic Explanations
3. Interpretability Beyond Feature Attribution:
Quantitative Testing with Concept Activation Vectors (TCAV)
-- Explain the model towards the effects of some important concepts, such as stripes to zebra.
-- Evaluate the method using images with a caption on the pixels. This is the ancestor of [1]
4. 【CVPR2019】Multimodal Explanations by Predicting Counterfactuality in Videos
利用attribute和bounding box对视频分类进行解释。
优点:生成的是visual+linguistic的解释,利用了counterfactual, 即没有被分到A类因为没有attriA。
缺点:使用了bounding box进行框定,如果用的是自解释的方法会更好。
Screen Shot 2019-09-09 at 9.23.24 AM.png
5. 【CVPR2019】Learning to Explain with Complemental Examples
和4同一个作者,唉,,,,,
利用attributes解释分类,同时选出counterfactual例子证明为什么不是另一类。
Screen Shot 2019-09-09 at 10.25.52 AM.png
6. 【CVPR2019】Attention Branch Network:Learning of Attention Mechanism for Visual Explanation
这篇文章将CAM和网络结构相结合,然后称提高了分类准确率。这就是高配版的戴威论文。。。
实验有三个,cifar,ImageNet和face attribute prediction
这个face attribute prediction值得说一下,这个实验是做在面部属性识别上的,而且面部图片有
7. 【CVPR2019】Interpretable and Fine-Grained Visual Explanations for
Convolutional Neural Networks
方法与RISE类似,利用含有两种不同object的image进行测试,确定模型定位的能力。
利用医学图像进行测试,确定模型定位的能力。
利用ImageNet做deletion实验。
8. Real Time Image Saliency for Black Box Classifiers
NIPS2017
网友评论