Adversarial Latent Autoencoders
2020-04-29 18:48
2041 查看
一篇GAN与AE结合的文章,用于探索AE相较GAN的生成能力和解耦表示。构建了两种AE:MLP和StyleGAN。结构如下:
把原生GAN中的G分解为F与G的映射,D分解为E与D的映射:
F是一个确定性的映射,将噪声z编码成隐变量w。 E和G是随机的,G同时取决于隐变量w和噪声的输入。E将生成的图像进行编码,然后约束由F生成的分布与由E生成的分布尽可能详尽。这样给定w就可以生成图像,给定图像就可以编码w。在推理时就可以实现重构。可以看到公式7约束的就是隐变量空间w的相似度,而非约束原生AE中的图像(数据空间)相似度。
上式即为目标函数。相比BiGAN重构效果不太受到label filp的影响:
对比在Z空间插值和直接在W空间插值的结果:后者更平滑,较为分离。
基于StyleGan的结构:
各级风格特征(均值方差)经过一个线性层来聚合后放到GAN里,此时的E就可以编码风格,重建效果:
相关文章推荐
- A wizard’s guide to Adversarial Autoencoders: Part 2, Exploring latent space with Adversarial Autoen
- A wizard’s guide to Adversarial Autoencoders: Part 1, Autoencoder?
- A wizard’s guide to Adversarial Autoencoders: Part 3, Disentanglement of style and content.
- 【思维导图】What are Autoencoders? Learn How to Enhance a Blurred Image using an Autoencoder!图像去噪自编码器
- Theano-Deep Learning Tutorials 笔记:Denoising Autoencoders (dA)
- H2O学习笔记(五)——Deep Autoencoders
- Stacking Denoised Autoencoders 涉及到的基本概念
- [阅读笔记]AutoRec: Autoencoders Meet Collaborative Filtering
- [机器学习] UFLDL笔记 - Autoencoders and Sparsity
- A Tutorial on Deep Learning Part 2: Autoencoders, Convolutional Neural Networks and Recurrent Neural
- mnist_autoencoders
- 多层降噪自动编码机(Stacked Denoising Autoencoders)
- (六)6.4 Neurons Networks Autoencoders and Sparsity
- VARIATIONAL AUTO ENCODERS(VAE)-变分自动编码器
- 基于theano的降噪自动编码器(Denoising Autoencoders--DA)
- A Statistical View of Deep Learning (II): Auto-encoders and Free Energy
- Denoising Autoencoders (dA)
- Tutorial on Variational AutoEncoders
- AutoEncoders变种
- Autoencoders