美文网首页生成对抗性学习笔记
一个比WGAN更优秀的模型(WGAN-GP)

一个比WGAN更优秀的模型(WGAN-GP)

作者: Lornatang | 来源:发表于2019-04-11 22:03 被阅读0次

WGAN-GP (improved wgan)

paper

GitHub

WGAN-GP是WGAN之后的改进版,主要还是改进了连续性限制的条件,因为,作者也发现将权重剪切到一定范围之后,比如剪切到[-0.01,+0.01]后,发生了这样的情况,发现大多数的权重都在-0.01 和0.01上,这就意味了网络的大部分权重只有两个可能数,对于深度神经网络来说不能充分发挥深度神经网络的拟合能力,简直是极大的浪费。并且,也发现强制剪切权重容易导致梯度消失或者梯度爆炸,梯度消失很好理解,就是权重得不到更新信息,梯度爆炸就是更新过猛了,权重每次更新都变化很大,很容易导致训练不稳定。梯度消失与梯度爆炸原因均在于剪切范围的选择,选择过小的话会导致梯度消失,如果设得稍微大了一点,每经过一层网络,梯度变大一点点,多层之后就会发生梯度爆炸 。为了解决这个问题,并且找一个合适的方式满足lipschitz连续性条件,作者提出了使用梯度惩罚(gradient penalty)的方式以满足此连续性条件。
梯度惩罚就是既然Lipschitz限制是要求判别器的梯度不超过K,那么可以通过建立一个损失函数来满足这个要求,即先求出判别器的梯度d(D(x)),然后建立与K之间的二范数就可以实现一个简单的损失函数设计。但是注意到D的梯度的数值空间是整个样本空间,对于图片(既包含了真实数据集也包含了生成出的图片集)这样的数据集来说,维度及其高,显然是及其不适合的计算的。作者提出没必要对整个数据集(真的和生成的)做采样,只要从每一批次的样本中采样就可以了,比如可以产生一个随机数,在生成数据和真实数据上做一个插值于是就算解决了在整个样本空间上采样的麻烦。

所以WGAN-GP的贡献是:

◆ 提出了一种新的lipschitz连续性限制手法—梯度惩罚,解决了训练梯度消失梯度爆炸的问题。

◆ 比标准WGAN拥有更快的收敛速度,并能生成更高质量的样本

◆ 提供稳定的GAN训练方式,几乎不需要怎么调参,成功训练多种针对图片生成和语言模型的GAN架构

但是论文提出,由于是对每个batch中的每一个样本都做了梯度惩罚(随机数的维度是(batchsize,1)),因此判别器中不能使用batch norm,但是可以使用其他的normalization方法,比如Layer Normalization、Weight Normalization和Instance Normalization,论文中使用了Layer Normalization,weight normalization效果也是可以的。

文章引用于 CSDN
编辑 Lornatang
校准 Lornatang

相关文章

  • 一个比WGAN更优秀的模型(WGAN-GP)

    WGAN-GP (improved wgan) paper GitHub WGAN-GP是WGAN之后的改进版,主...

  • WGAN-GP有关

    help: 什么是gans: https://blog.csdn.net/u010089444/article/d...

  • 从GAN到WGAN再到WGAN-GP

    从GAN到WGAN再到WGAN-GP 基本理论知识 KL散度: JS散度:其中性质:满足对称性;当两概率为0时,J...

  • WGAN-GP的Tensorflow实现

    相对于有监督学习来说,生成对抗网络是一个很酷的算法。它利用一个生成器和一个判别器来对数据集进行学习。拿生成图片的例...

  • GAN 生成对抗网络

    GAN网络可以说是近来最火的神经网络模型,其变种包括WGAN,WCGAN,WGAN-l,circleGAN等,被广...

  • 使用WGAN-GP算法构造精致人脸

    在上一节中可以看到基于”推土距离“的WGAN网络能够有效生成马图片,但是网络构造能力有所不足,因此导致有些图片模糊...

  • 用Pytorch实现WGAN

    本文是解读WGAN的实践篇,目标是用pytorch实现能生成人脸图像的WGAN。如果对WGAN、DCGANs和GA...

  • Wasserstein GAN简明版

    涉及WGAN的论文总共三篇:WGAN前作:Towards Principled Methods for Train...

  • 零样本图像识别 | Feature Generating Net

    创新:提出f-GAN 、 f-WGAN 和 f-CLSWGAN、将WGAN的loss和Classfication的...

  • WGAN

    GAN-QP 写到一半发现关于 WGAN 以及它相关约束部分之前没有完全读懂,需要重读,那顺手也把笔记给谢了吧 W...

网友评论

    本文标题:一个比WGAN更优秀的模型(WGAN-GP)

    本文链接:https://www.haomeiwen.com/subject/bokfwqtx.html