美文网首页
黑盒攻击深度学习模型paper5篇总结

黑盒攻击深度学习模型paper5篇总结

作者: zhenglisec | 来源:发表于2018-08-16 00:16 被阅读482次

layout: post
title: 黑盒攻击深度学习模型paper5篇总结
categories: [deep learning]
description: 截止201804几种黑盒攻击方法
keywords: deeplearning, , black box attack, model


Transferability in ML: 需要少量input 和 label(例如预测数字为label=2)

  1. 模型的训练
Traning of the substitute model
  • 初始化收集:收集少量的数据集,如手mnist,收集0~9的10张

  • 替代模型的结构,寻找合适的替代模型结构,如针对图片采用卷积层针对文本采用RNN, 而且他们证明层的类型,数量和大小仅有些相对较小的影响。

  • submodel的训练:将初始inputs送入原model进行查询获取label,获得一个完成的数据集(input,label)之后进行submodel的训练

  • 数据集的扩增,jacobian-based with reservoir sampling

  1. 对抗样本的生成(利用白盒攻击的方法)

GENERATING NATURAL ADVERSARIAL EXAMPLES: 需要input 和 label(例如预测数字为label=2)

1.模型的训练(获得generator和inverter):

Traning Architecture with a GAN and an Inverter

和普通GAN的学习基本一致,只不过多了一个反向转换器inverter

损失函数如上,实现的效果是:

  • 输入高斯分布z,G输出真实图片x'

  • 够输入x,inverter输出符合高斯分布的z’

以上保证了输入z或者对z的轻微修改,G依旧能够生成真实图片

2.对抗样本的生成

Natural Adversary Generation

迭代随机寻找,对z=z’+θ,其中θ是对z的修改,是循环尝试、随机生成、符合一定分布的,所以说尽可能尝试。

ZOO: Zeroth Order Optimization Based Black-box Attacks:需要input+每一个类别的概率

1.模型的训练

optimization problem

损失函数如上,左边保证对抗样本与真实input的相似,右边保证对抗样本能导致目标模型出错,具体如下:

target attack untargeted attack
  • DNN model,如果目标model的数据集类似mnist,图片较小,就不会使用到attack-space hierarchical attack importance sampling

    • attack-space :计算梯度时的坐标选取范围变小 (299x299x3->32x32x3)

    • hierarchical attack:与上面的相反,小范围的坐标选取可能会没 有效果(32x32x3->64x64x3)

    • importance sampling:有时经过了attack-space,坐标范围还是非 常的大,此时就需要根据坐标的重要性进行 选取(一般认为,图片中间位置的像素较边 角的重要)

  • 随机选取一个坐标

  • 估计梯度,h非常小,ei是一个只有i-th元素等于1的偏置向量。第二个只在牛顿法中才会使用。

loss functions loss function
  • 获得了上面的近似梯度后,利用一阶或二阶方法(如下红框内的adam方法和newton method)来获取best梯度
ZOO-ADAM ZOO-Newton
  • 获得了best梯度,对x进行修改,输入目标model,如果出错则保留修改后的x,否则,循环②③④直到产生best梯度

DECISION-BASED ADVERSARIAL ATTACKS:需要input和 label(例如预测数字为label=2)

  1. 模型的训练

① 初始化一张对抗input’ ~ U(0,1)

② 获取扰动

,之后对其进行修剪符合下列:


③ 对扰动修剪后,会符合

④ 修改ε,满足下列损失函数

此损失函数会导致上图的箭头↓(#2),即与等距线垂直的方向,靠近原input

⑤重复②③④,即重复←↓(#1 #2),越贴近原input时,会修改ε变小。

⑤ 当ε非常小的时候(收敛至0,如0.001),则保存此input’

说明:上述②③④一直循环时,input’是一致导致目标model出错的,只不过是越来越接近原input,即图片越来越真实。当ε非常小的时候,则表明此时input’已经很贴切原input,同时已经保持着让目标model出错的性质。

Machine Learning as an Adversarial Service: Learning Black-Box Adversarial Examples:需要input和每一个类别的概率

  1. 模型的训练
    OverView of the attack
Attack model Architecture Loss function

相关文章

网友评论

      本文标题:黑盒攻击深度学习模型paper5篇总结

      本文链接:https://www.haomeiwen.com/subject/gvggbftx.html