概
很有趣, GAN的训练过程可以分成
- 寻找一个超平面区分real和fake;
- 训练判别器, 使得real和fake分得更开;
- 训练生成器, 使得real趋向错分一侧.
主要内容
McGAN
本文启发自McGAN, 在此基础上, 有了下文.
结合SVM
设想, GAN的判别器, 其中
是一个激活函数, 常见如sigmoid, 先假设其为identity(即
).
McGAN 是借助来构建IPM, 并通过此来训练GAN. 但是,注意到, 若将
视作从
中提取出来的特征, 则
便是利用线性分类器进行分类,那么很自然地可以将SVM引入其中(训练判别器的过程.
类似于
其中
进一步地, 用以训练:
SVM关于有如下最优解
其中只有对支持向量非零.
定义
为margin上及其内部区域的点.
于是
其中
训练
于是由此来训练
训练
就是固定训练
.
所以
其中
的
理论分析
的时候



定理1: 假设是(24), (25)交替最小化解, 则
几乎处处成立, 此时
.
注: 假体最小化是指在固定下,
最小,在固定
下
最小.
证明
注:文中附录分析了各种GAN的超平面分割解释, 挺有意思的.
网友评论