美文网首页
The Limitations of Deep Learning

The Limitations of Deep Learning

作者: 馒头and花卷 | 来源:发表于2020-05-07 11:34 被阅读0次

Nicolas Papernot, Patrick McDaniel, Somesh Jha, Matt Fredrikson, Z. Berkay Celik, Ananthram Swami, The Limitations of Deep Learning in Adversarial Settings.

利用Jacobian矩阵构造adversarial samples,计算量比较大.

主要内容

目标:
\tag{1} \mathop{\arg \min} \limits_{\delta_X} \|\delta_X\|, \mathbf{s.t.} \: F(X+\delta_X)=Y^*.
简而言之, 在原图像X上加一个扰动\delta_X, 使得F关于X+\delta_X的预测为Y^*而非Y.

Y \in \mathbb{R}^M是一个M维的向量, 类别由下式确定
label(X)=\mathop{\arg \min} \limits_{j} F_j(X).
F(X)=Y关于X的Jacobian矩阵为
[\frac{\partial F_j(X)}{\partial X_i}]_{i=1,\ldots,N,j=1,\ldots,M},
注意, 这里作者把X看成一个N维向量(只是为了便于理解).

因为我们的目的是添加扰动\delta_X, 使得X+\delta_X的标签为我们指定的t, 即我们希望
t=\mathop{\arg \min} \limits_{j} F_j(X+\delta_X).
作者希望改动部分元素, 即\|\delta_X\|_0\le \Upsilon, 作者是构造了一个saliency_map来选择合适的i, 并在其上进行改动, 具体算法如下:

在这里插入图片描述

saliency_map的构造之一是:

S(X,t)[i] = \{ \begin{array}{ll} 0, & if \: \frac{\partial{F_t(X)}}{\partial X_i} <0 \:or \: \sum_{j \not= t} \frac{\partial F_j(X)}{\partial X_i} >0, \\ \frac{\partial{F_t(X)}}{\partial X_i} |\sum_{j \not= t} \frac{\partial F_j(X)}{\partial X_i}|, & otherwise. \end{array}
可以很直观的去理解, 改变标签, 自然希望F_t(X)增大, 其余部分减少, 故 \frac{\partial{F_t(X)}}{\partial X_i} <0 \:or \: \sum_{j \not= t} \frac{\partial F_j(X)}{\partial X_i} >0所对应的X_i自然是不重要的, 其余的是重要的, 其重要性用\frac{\partial{F_t(X)}}{\partial X_i} |\sum_{j \not= t} \frac{\partial F_j(X)}{\partial X_i}|来表示.

alg2, alg3

作者顺便提出了一个更加具体的算法, 应用于Mnist, max_iter 中的784即为图片的大小28 \times 28, \Upsilon=50, 相当于图片中50\%的像素发生了改变, 且这里采用了一种新的saliency_map, 其实质为寻找俩个指标p,q使得:

在这里插入图片描述
其实际的操作流程根据算法3. 是每次改变元素的量.
在这里插入图片描述 在这里插入图片描述

一些有趣的实验指标

Hardness measure

在这里插入图片描述
在这里插入图片描述
其中中, :图片标签, :目标标签, :成功率, 为改变像素点的比例. (12)是(11)的一个梯形估计, 由选取不同的来确定, 越大说明将类别s改变为t的难度越大.

Adversarial distance

在这里插入图片描述
越大, 说明将图片的标签变换至的难度越大, 而一个模型的稳定性可以用下式衡量

相关文章

网友评论

      本文标题:The Limitations of Deep Learning

      本文链接:https://www.haomeiwen.com/subject/byboghtx.html