Q1:GAN 对噪声 z 的分布有要求吗?常用有哪些分布?
Q2:GAN 的 adversarial 体现在哪里?
Q3:G 和 D 的 loss 分别是什么? Pdata,Pg 的 JS divergence 和 adversarial loss之间存在什么关系?
Q4:GAN 是怎样训练的?
Q5:在一轮迭代中,G 和 D 的更新此时哪个多?为了让 G 学得更好一点,能不能让 G 多更新?
Q7:在 GAN 中添加 batch normalization 层有什么作用?
Q8:DCGAN 对激活函数做了哪些限制?
Q9:DCGAN 哪些地方使用卷积,哪些地方使用反卷积(fractional-strided卷积),哪些地方使用全连接?
Q10: GAN 的隐空间的每个维度是否有明确的含义?