前言
今日阅读《GAN 生成对抗网络论文阅读路线图》一文。
原文微信公众号:
阅读笔记
简介
【导读】如果你刚入门深度对抗网络,可能会遇到的第一个问题是“应该从哪篇论文开始读起呢?”
这里给出了GAN论文阅读路线图!
路线图按照下面四个准则构建而成:
从提纲到细节
从经典到前沿
从通用领域到特定领域
专注于最先进的技术
这四个准则挺有意思的:
1)从提纲到细节:
- 我认为读论文就应该先读提纲。即,我们在选择好要读的论文之后(通常有很多篇),先读这些论文的introduction,然后再有重点的研究部分论文。
2)从经典到前沿:
- 经典是必须要关注的,追根溯源是不可缺少的,通过阅读经典,我们能知道问题最本质的、最原始的形态。同时,在理解经典的论文工作后,又要着眼于最新、最前沿的东西,这样才能对整个领域有个更好的掌控。
3)从通用到特定领域:
- 不用说了,我感觉发论文肯定是针对特定领域的,所以先通用,是为了掌握宏观全局,后特定,是为了深入研究。
4)专注于最先进的技术:
- 同紧跟前沿。
上图似乎就是一个GAN(Generative Adversarial Networks)网络。
论文列举
-
NIPS 2016 Tutorial: Generative Adversarial Networks
GAN的教程。 -
Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks
使卷积GAN训练更加稳定的新型结构——深度卷积生成网络(DCGAN)。 -
Wasserstein GAN
Wasserstein GAN(WGAN)来优化GANs的训练过程。 -
Improved Training of Wasserstein GANs
一种替代weight clipping命名梯度惩罚的方法,把这种结构称为WGAN-GP -
On the Regularization of Wasserstein GANs
提出了一种新的惩罚项来加强Lipschitz约束 -
Is Generator Conditioning Causally Related to GAN Performance?
一种重要的技术Jacobian Clamping -
Neural Photo Editing with Introspective Adversarial Networks
感知图像编辑器(Neural Photo Editor),它是一个图像编辑界面,可以用生成神经网络的能力来对图像进行比较大的语义层面的合理修改 -
GANs Trained by a Two Time-Scale Update Rule Converge to a Local Nash Equilibrium
引入两种基于时间尺度的更新规则(原文为“跟新规则”) -
Spectral Normalization for Generative Adversarial Networks
提出一种称为spectral normalization的新的权重归一化技术,以稳定GAN鉴别器的训练。 -
Generalization and Equilibrium in Generative Adversarial Nets (GANs)
泛化能力是衡量生成模型好坏的一个重要标准,本文指出 JS 散度、Wasserstein 距离都不能很好地衡量模型的泛化能力
附加(重要)
原来下面的评论也很精髓:
所以网友建议是:
1)先去B站上看李宏毅的GAN教程视频;
2)再读论文。