作者 | 孙裕道
编辑 | CV君
报道 | 我爱计算机视觉(微信id:aicvml)
介绍一篇对抗学习最新论文 Meta Adversarial Training ,作者来自德国博世公司。
![](https://img.haomeiwen.com/i25355173/1c51d4a7003708c4.png)
引言
深度学习模型中一个很致命的弱点就是它容易遭到对抗样本攻击。在真实物理世界中,通用对抗样本可以低成本的对深度模型进行对抗攻击,这种对抗攻击可以在各种环境中欺骗模型。
到目前为止对抗训练是针对对抗攻击最有效的防御手段,但问题在于训练对抗模型是一件成本很高的事情,而且防御通用对抗样本难度会更大。
在该论文中作者提出了一种元对抗训练方式,它将对抗训练和元学习的结合在一起,不仅降低训练成本,而且大大提高了深度模型对通用对抗样本的鲁棒性。
背景介绍
通用对抗扰动于2017年的《Universal adversarialperturbations》中被首次提出。
通用对抗扰动与单一图片的对抗扰动有很大的区别。通用对抗扰动最大的一个特点就是该扰动与输入图片无关,它与模型本身和整个数据集相关;
而单一图片的对抗扰动只是针对于它的输入图片,对数据集其它的图片攻击性几乎没有。
![](https://img.haomeiwen.com/i25355173/388af5b57b5dc43b.png)
如上图所示,假如有一个动物数据集和经该数据集上训练得到神经网络分类器,经过对抗攻击生成了针对于该动物数据集和该模型的通用对抗扰动Universalperturbation。
将该对抗扰动加在选取出的猫,狗,兔子,猴子,鸟的图片,并输入到分类器中,分类器全部分类出错。
模型介绍
![](https://img.haomeiwen.com/i25355173/77613207e55997b0.png)
![](https://img.haomeiwen.com/i25355173/78a66717c1b9c235.png)
![](https://img.haomeiwen.com/i25355173/258fee1a3e1ecd8c.png)
较大的步长对应于元扰动,元扰动更全局地探索允许的扰动空间,而较小的步长导致更细粒度的攻击。
为了能够更加清晰的展示出该论文中关于元对抗训练的过程,综合上述的算法介绍,我将论文中的算法流程图进行了重新进行了整理,如下框图所示:
![](https://img.haomeiwen.com/i25355173/d4a6b0f214adddf7.png)
实验结果
鲁棒性评估
该论文中的鲁棒性评估方法其实是扩展了于2018年Madry等人在PGD论文中的鲁棒性评估的方法。具体公式如下所示:
![](https://img.haomeiwen.com/i25355173/f32c9275bc9aaefc.png)
![](https://img.haomeiwen.com/i25355173/19ac83288db282fd.png)
定性定量结果
作者利用覆盖大约占比图像14%(24x24像素)的通用Patch来评估鲁棒性,并且对于每个Patch从图像中心最多随机平移26个像素。每个模型利用SGD训练75轮,初始学习率为0.033,学习衰减率设置为0.9,Batch_Size为128。
定量的结果如下图所示为对TinyImageNet(图片尺寸的大小为64x64,ImageNet的图片大小为256x256)分类器的攻击成功率。
其中CL代表的是干净样本数据,RI是带有随机初始化的Patch的样本,DI是带有裁剪的Patch的样本,LF是低频滤波器样本,Tr是从其它模型中迁移过来的对抗样本。可以直观的发现,该论文中提出的MAT是在防御对抗攻击中效果最好的。
![](https://img.haomeiwen.com/i25355173/03072c39a6dc7d6d.png)
防御通用对抗Patch的定性的结果如下图所示,在AT,SAT,UAT,以及本文提出的MAT的对抗训练方法中,只用MAT起到了抵御对抗攻击的效果。
![](https://img.haomeiwen.com/i25355173/ee239947909a2b05.png)
防御通用对抗扰动的定性的结果如下图所示,在AT,SAT,UAT,以及本文提出的MAT的对抗训练方法中,AT和MAT都完美的抵御对抗攻击。
![](https://img.haomeiwen.com/i25355173/04ed71eff5d0c012.png)
整体综合来看,MAT在抵御通用对抗扰动中是最出色的。
论文:
https://arxiv.org/abs/2101.11453代码:
http://github.com/boschresearch/meta-adversarial-training
END
网友评论