相对于原始GAN的改进点: 解决GAN训练不稳定的问题,不再需要小心平衡生成器和判别器的训练程度 基本解决了模式坍塌(collapse mode)的问题,确保了生成样本的多样性 训练过程中可以使用WGAN判别器loss函数的值来判断训练效果(近似Wasserstein距离的相反数),这个数值越小代表GAN训练得越好,代表生成器产生的图像质量越高 只需要将原始GAN的算法流程改进四点就可以实现以上效果 原始GAN的缺点 对于原始GAN中生成器G的第一种损失函数,由Theory 1./2. 证明其不足. $$ Loss_{G1} = \mathbb{E}_{x\sim p_{g}[log(1-D(x))]} $$ 对于原始GAN中G的第二种损失函数,由Theory 3. 证明其不足. $$ Loss_{G2}=\mathbb{E}_{x\sim p_{g}[-log(D(x))]} $$ Theory 1.两个不重叠分布的JS散度=log2 首先回顾一下GAN的价值函数V(G,D),因为第一项和G无关,所以最小化V(G,D)等效于最小化我们刚刚提到的$Loss_{G1}$. $$ \m
JJJYmmm
Updating as per fate.