赞
踩
这段文字详细解释了在生成对抗网络(GAN)中,从判别器和生成器的角度来看,如何分割和理解损失函数 V ( D , G ) V(D, G) V(D,G)。让我们逐句详细解释:
从判别器的角度来看,V的表达式中,两部分对数都与判别器D有关,而只有后半部分的对数与生成器G有关:
对判别器我们有:
从判别器的角度来看,由于判别器希望自己尽量能够判断正确,而输出概率又是“数据为真”的概率:
所以最佳情况下就是所有的真实样本上的输出 D ( x i ) D(x_i) D(xi)都无比接近 1,而所有的假样本上的输出 D ( G ( z i ) ) D(G(z_i)) D(G(zi))都无比接近 0:
因此对判别器来说,最佳损失值是:
这说明判别器希望以上损失 Loss D \text{Loss}_D LossD越大越好:
且判别器追求大 Loss D \text{Loss}_D LossD的本质是令 D ( x ) D(x) D(x)接近 1,令 D ( G ( z ) ) D(G(z)) D(G(z))接近 0:
通过理解判别器的角度和其损失函数的最佳值,我们可以更好地掌握 GAN 的训练机制及其优化目标。如果您有更多问题或需要进一步的解释,请告诉我!
这段文字详细解释了在生成对抗网络(GAN)中,从生成器的角度来看,如何分割和理解损失函数 V ( D , G ) V(D, G) V(D,G)。让我们逐句详细解释:
从生成器的角度来看,生成器无法影响 D ( x i ) D(x_i) D(xi),只能影响 D ( G ( z i ) ) D(G(z_i)) D(G(zi)),因此只有损失的后半段与生成器相关:
对生成器我们有:
去掉无关的常数部分:
生成器的目标是令输出的数据越真越好,最好让判别器完全判断不出:
因此生成器希望 D ( G ( z i ) ) D(G(z_i)) D(G(zi))越接近 1 越好:
生成器希望以上损失 Loss G \text{Loss}_G LossG越小越好,且最小值理论上可达负无穷:
且生成器追求小 Loss G \text{Loss}_G LossG的本质是令 D ( G ( z ) ) D(G(z)) D(G(z))越接近 1 越好:
通过理解生成器的角度和其损失函数的优化目标,我们可以更好地掌握 GAN 的训练机制及其对抗关系。生成器和判别器在对抗中不断提升各自的能力,最终实现生成逼真数据和准确分类数据的目标。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。