可视化深度卷积网络解释型的弹性
(1)跨数据集
(2)网络权重损毁
(3)用在遥感图像上,利用CAM,证明弹性
(4)可视化权重破坏对于可解释性的影响
(5)可视化重训练网络的意义
(6)破坏很简单,是drop D%的权重
(7)破坏是永久性的破坏就不会在“测试”和“重训练”阶段使用,
(8)重新训练会用剩下的网络权重来加强解释性
(9)第一个实验:关于迁移学习的:A上训练好的CAM在B上保持一定弹性,甚至于对没出现的类,cam效果都还不错 ,但是样本集差太远了就不行了,但是如果用A预训练好的再retrain是在B数据集上进行,发现可以改善B数据集上的可解释性,证明迁移学习重要性
(10)第二个实验;关于权重损失的,
这个也太随意了,cvpr2019 workshop有点水
网友评论