美文网首页
Defending Adversarial Attacks by

Defending Adversarial Attacks by

作者: 馒头and花卷 | 来源:发表于2020-09-10 22:29 被阅读0次

    Li Y., Xie L., Zhang Y., Zhang R., Wang Y., Tian Q., Defending Adversarial Attacks by Correcting logits[J]. arXiv: Learning, 2019.

    作者认为, adversarial samples 和 natural samples的分布是不同, 结果二者的输出logits的分布也是不同的, 那么能否通过此来还原正确的类别呢?

    在这里插入图片描述

    主要内容

    在这里插入图片描述

    思路是这样子的, 假设原本的网络为f(\cdot), natural样本x和adversarial样本x'分别得到zz', 根据假设(发现)二者的分布是不同的. 构建一个新的判别器g(\cdot), 将zz'作为新的输入, 自然我们希望natrual样本的z的输出还是g(z)=z, 而adversarial样本的z'被转换为g(z')=z. 如果能够做到, 那么g(\cdot)就成为了一个防御手段.

    实验发现, 这种想法是有效的, 且效率非常高, 甚至能够提高clean accuracy !

    实验

    论文没有开放代码, 个人的实验结果不是很理想, 当然可能和在小数据集上跑有关系. 另外论文没有说清楚adversarial samples是如何构造的. 因为如果是单纯通过原有的网络构造对抗样本再利用g(\cdot)恢复是不可靠的, 应该在g \circ f的基础上构造.

    相关文章

      网友评论

          本文标题:Defending Adversarial Attacks by

          本文链接:https://www.haomeiwen.com/subject/vepmektx.html