美文网首页
李宏毅 GAN lecture(2018)笔记_P5

李宏毅 GAN lecture(2018)笔记_P5

作者: conson_wm | 来源:发表于2020-02-07 11:43 被阅读0次

    1. General Framework

      Df(P||Q)表示P和Q分布的距离, 这就代表两个分布像不像, GAN的目的就是为了让Genorator产生的图像分布尽量接近target domain的图像分布

      f-divergence就表示计算divergence的一个通用的表达方式, 不同的divergence就是不同的量度Generator domain和target domain距离的方法

    image.png

    不同的f(x)就得到不同的divergence


    image.png

    f(x)的共轭f*(t), 这玩意儿有什么用呢?

    image.png
    image.png

    举个栗子
    f(x)=xlogx时, f*(t)是exp(t-1)

    image.png

    证明

    image.png

    与GAN的联系

    image.png

    t = D(x), 找一个D(x)它可以max约等于后面那长串, 这个D就是Discriminator

    image.png

    这些divergence其实并没有太大的差别

    image.png

    Mode Collapse就是产生出来的Distribution越来越小, 无法泛化real data

    image.png

    Mode Dropping就是只能产生real data某一模式的特定分布, 蓝色是real data, 有两群分布, 而黄色是GAN产生的fake data, 只模仿了其中一群的分布

    比如slide中, 一次iteration, 就会让GAN产生一种特定肤色的人脸

    image.png

      猜想 - 上面两个问题有可能是divergence选的不好造成的, 如果是KL-devergence, 那就是学一个两个都不像, 出来的效果就是blur, 如果用reverse KL, 那就是mode dropping, 只能学其中一个distribution学的特别好, 另外的就管不了


    image.png

      那实际上, Mode Collapse / Dropping并不完全是由选择不同的f-divergence导致的

    有效避免Model Collapse / Dropping的手段是Ensemble, 多训几个Genorator, 随机挑选

    image.png

    相关文章

      网友评论

          本文标题:李宏毅 GAN lecture(2018)笔记_P5

          本文链接:https://www.haomeiwen.com/subject/zkhmxhtx.html