美文网首页
原始GAN初探

原始GAN初探

作者: zhouycoriginal | 来源:发表于2019-07-27 12:45 被阅读0次

GAN的学习是一个二人博弈问题,最终目标是达到纳什平衡。

原始GAN的目标优化函数如下:
\min\limits_{G} \max\limits_{D}=E_{x-p_{data(x)}}[\log(D(X))]+E_{z-p_{z}}[1-\log(D(G(z))]
目标是最小化G,最大化D:
对于D来说,先固定住G:

For D:
\max\limits_{D}=E_{x-p_{data(x)}}[\log(D(X))]+E_{z-p_{z}}[1-\log(D(G(z))]
D最大话意味着:D要尽可能的识别真样本D(X)和假样本D(G(z)), 即将真样本识别为1,假样本识别为0,否则第一部分的公式将趋于负无穷,第二部分也将趋于负无穷:
D(X)\uparrow\space\Rightarrow\space\log(D(X))\uparrow
D(G(z))\downarrow\space\Rightarrow\space\log(D(G(z)))\downarrow\space\Rightarrow\space 1-\log D(G(z))\downarrow

For G:
\min\limits_{G}=E_{x-p_{data(x)}}[\log(D(X))]+E_{z-p_{z}}[1-\log(D(G(z))]
因为第一项是没有用的(D部分),所以等价于
=>\max\limits_{G}=E_{z-p_{z}}[\log(D(G(z))]


GAN的最优情况:
For D:
D_{G}=\frac{P_{data}}{P_{data}+P_{fake}}
此处也解释了为什么当D的loss为0.5是认为是最优的D
For G:
G的目标就是生成和真实数据一样的分,故G的最优情况为:
P_{data} = \frac{P_{data}+P_{G}}{2}
P_{data}=P_{fake}

相关文章

  • 原始GAN初探

    GAN的学习是一个二人博弈问题,最终目标是达到纳什平衡。 原始GAN的目标优化函数如下:目标是最小化G,最大化D:...

  • GAN初探

    对抗网络相关文章其中主要的三篇论文1)Generative Adversarial Networks;2)Cond...

  • no.2-10/23/2018

    一:预定目标 继续对GAN的学习。掌握原始GAN的思想和实现,接触其他GAN变形的原理和实现方法。这周学习了 Co...

  • GAN总结

    原始GAN GAN 主要包括了两个部分,即生成器 generator 与判别器 discriminator。生成器...

  • 深度卷积生成对抗网络(DCGAN)

    DCGAN DCGAN相对于原始的GAN并没有太大的改进,只是将全卷积神经网络应用到了GAN中,因此GAN存在的许...

  • GAN学习

    原始GAN(Ian Goodfellow) 1.https://www.cnblogs.com/fydeblog/...

  • 原始GAN对抗网络

    参考 GAN 在NLP中应用:https://www.jianshu.com/p/54afd578b8a3 GAN...

  • GAN-QP

    摘要 我们知道在 SGAN (原始 GAN,Standard GAN) 中有梯度弥散的风险,对其一个十分重要的改进...

  • 2018-10-06一个新的想法

    加入cLR-GAN进行训练,但是原始输入的z采用cVAE-GAN阶段编码出来的Z向量,最后将生成图像编码出来的Z'...

  • PGGAN笔记(未完待续)

    PGGAN笔记 1. Progressive Growing of GANs 原始GAN存在的问题: 当需要生成的...

网友评论

      本文标题:原始GAN初探

      本文链接:https://www.haomeiwen.com/subject/uuosrctx.html