@article{wang2020improving,
title={Improving Adversarial Robustness Requires Revisiting Misclassified Examples},
author={Wang, Yisen and Zou, Difan and Yi, Jinfeng and Bailey, James and Ma, Xingjun and Gu, Quanquan},
year={2020}}
概
作者认为, 错分样本对于提高网络的鲁棒性是很重要的, 为此提出了一个启发于此的新的损失函数.
主要内容
符号
: 参数为的神经网络;
: 类别及其标签;
定义正分类样本和误分类样本
MART
在所有样本上的鲁棒分类误差:
并定义在错分样本上的鲁棒分类误差
其中
以及正分样本上的鲁棒分类误差:
最后, 我们要最小化的是二者的混合误差:
为了能够传递梯度, 需要利用一些替代函数"软化"上面的损失函数, 对于利用BCE损失函数替代
第一项为普通的交叉熵损失, 第二项用于提高分类边界.
对于第二项, 用KL散度作为替代
最后一项则可用 来代替.
于是最后的损失函数便是
其中
网友评论