@article{pang2018max-mahalanobis,
title={Max-Mahalanobis Linear Discriminant Analysis Networks},
author={Pang, Tianyu and Du, Chao and Zhu, Jun},
pages={4013--4022},
year={2018}}
概
本文介绍了从最大化马氏距离的角度提出了一种defense.
主要内容
对于俩个分布来说, 区分样本属于哪一个分布, 最好的分类器就是贝叶斯分类, 特别的, 如果是高斯分布, 且协方差矩阵一致, 则其分类平面为
其中
特别的, 当为对角矩阵的时候, 其分类平面只与有关.
设一个混合高斯分布:
并定义
因为神经网络强大的拟合分布能力, 我们可以假设(文中将\Sigma$分解, 然后用变量替换可以得到, 马氏距离在此情况下具有不变性, 我觉得不如直接这么解释比较实在).
设想, 从第i个分布中采样, 将移动到与类的分类平面的距离设为,
定理: 如果, 则的期望为
其中表示正态分布函数.
注意, 这里的是到分类平面的距离, 也就是说, 如果如果本身就位于别的类中, 同样也计算这个距离, 不公平, 当然如果这么考虑, 证明起来就相当麻烦了.
如果定义
则我们自然希望越大越好(越鲁棒, 但是根据我们上面的分析, 这个定义是存在瑕疵的). 然后通过导数, 进一步发现
有定理:
在这里插入图片描述
所以, 作者的结论就是, 最后一层
满足, 为此作者设计了一个算法
去构造. 所以, 这最后一层的参数是固定不训练的. 余下的与普通的网络没有区别.
网友评论