当前位置:   article > 正文

变分自编码器(VAE)到底是做什么的?_sd vae干嘛的

sd vae干嘛的

看了各种各样的博客,终于有了自己的一点理解!懂了以后发现这个思想蛮有意思的。

首先要知道啥是自编码器,其实就是encoder - decoder结构,可以用来压缩数据的,比如我手写一个0,经过神经网络(encoder)输出一个64维的向量,然后用神经网络(decoder)将这个向量还原出我写的0,设置一个重建loss让两幅“0”图长得像,就可以训练出来一个自编码器,以后只需要这个64维向量就可以解码出我写的0啦。

那么不满足的我,想要生成任意一个0,和我写的像又不一样,这怎么办?很直观的想法就是加一个小扰动到64维向量,让解码器生成。但是结果肯定不理想,可能没变化,可能变得乱七八糟,毕竟解码器可没处理过这场面!

那么聪明的科学家琢磨了一个办法,让编码器(神经网络)除了输出一个向量(均值),还输出一个方差,训练的时候每次给你解码器的向量都是在均值附近来回跳(输入成了高斯分布),这样你这个解码器还不就能学习适应这种扰动了嘛,可以生成各种各样和0像却又不太一样的图!

可是这就带来一个问题,原来的重建损失,必然导致我学到的方差逼近于0,毕竟神经网络才不会喜欢你变来变去,解码出来的图就和原图之间的重建loss变大了。那好,那我们就加一个KL散度的损失(KL散度用于衡量分布之间的相似性),实际上就是正则项,来逼迫编码器生成的均值和方差与单位正态分布相似,这样你还不乖乖输出方差!这个KL散度的函数是一个泛函,求解它的极值需要变分法,这里也就体现了“变分”自编码器这个名字的含义。

现在可以体会到这种生成方案的精妙之处了啊!当然具体的介绍推荐看一下苏神的博客:https://spaces.ac.cn/archives/5253

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/121552
推荐阅读
相关标签
  

闽ICP备14008679号