林小北 · 2020年04月30日

GAN论文阅读笔记3:WGAN的各种变体

GAN 论文阅读笔记!共六篇,本文为第二篇。
来源:https://zhuanlan.zhihu.com/p/58184683
作者:林小北

上文《GAN论文阅读笔记2:不懂W距离也能理解WGAN》从两个角度解释了WGAN的原理。WGAN对原始GAN梯度消失的原因从数学上给出了比较漂亮的解释,并且基于W距离的思想给出了改造方案。然而这套改造方案并不尽人意。

  1. Lipschitz,WGAN的阿喀琉斯之踵

WGAN通过把判别器的每一层神经网络的参数clip到[-1, 1]区间,来保证判别器的Lipschitz性质。但是这种简单粗暴的方式会导致判别器的大部分参数都会变成-1或者1,这大大限制了判别器的拟合能力。我们之前提到,GAN及WGAN的理论前提是存在“完美的D”。现在WGAN的这种处理方式,对D的限制条件太强,D未必能及时地变成一个最优的判别器D*,也就破坏了这个前提条件。此外,多数的参数被局限在-1或1,也可能导致D对于G的变化不再敏感,进而导致模型坍塌。更多的分析可以去参阅WGAN-GP一文。

针对WGAN的这个弱点,各路学者们展开了广泛的讨论研究,力图找到一个更好地实现Lipschitz的方式。

2. WGAN-GP

WGAN-GP把Lipschitz条件 替换为 梯度惩罚项(gradient penalty) 。虽然梯度惩罚是一个比Lipschitz更强的条件,但是不会像clip那样导致判别器的参数过于极端。比起clip,梯度惩罚是一个更加柔性的限制条件。

具体而言,在WGAN-GP中,判别器D的损失函数为:

其中, 是真实分布 和生成分布 之间进行插值得到的分布,保证了梯度惩罚对两种分布均有覆盖。

相关链接:

Improved Training of Wasserstein GANs​arxiv.org
PaperWeekly 第41期 | 互怼的艺术:从零直达 WGAN-GP

3. CTGAN

1588227642595.jpg

相关链接:

Improving the Improved Training of Wasserstein GANs: A Consistency Term and Its Dual Effect​arxiv.org

4. SN-GAN

3.jpg
相关链接:

Spectral Normalization for Generative Adversarial Networks​arxiv.org

尹相楠:Spectral Normalization 谱归一化

github的实现

5. WGAN-div

4.jpg

相关链接:

[Wasserstein Divergence for GANs​arxiv.org]

张俊:WGAN-div:默默无闻的WGAN填坑者(附开源代码)​zhuanlan.zhihu.com图标

6.Boundary Equilibrium GAN

受EBGAN的启发(后面的笔记会介绍EBGAN),BEGAN提出了一种新的方式来移除WGAN的Lipschitz约束。

image.png
BEGAN论文​www.arxiv.org

7. 总结

WGAN保证Lipschitz的形式太粗暴了,为此便有了本文提到的各种改进形式。个人认为最优雅的改进方式是SNGAN的改进方式,数学上最完备的应该是WGAN-div。

本系列阅读笔记:

《GAN论文阅读笔记1:从零推导GAN》

《GAN论文阅读笔记2:不懂W距离也能理解WGAN》

更多深度学习,GAN相关论文阅读笔记请关注深度学习论文阅读笔记专栏
关于作者林小北:毕业于清华大学自动化系,京东算法工程师。
欢迎关注知乎专栏https://zhuanlan.zhihu.com/c_1080771046889623552
推荐阅读
关注数
3
内容数
11
尽量用简单的话把论文讲明白
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息