生成模型
给定数据集,希望生成模型产生与训练集同分布的新样本。对于训练数据服从
这也是无监督学习中的一个核心问题——密度估计问题。有两种典型的思路:
- 显式的密度估计:显式得定义并求解分布
,如VAE。 - 隐式的密度估计:学习一个模型
,而无需显式定义它,如GAN。
VAE
AE
首先介绍下自编码器(Auto Encoder, AE),它将输入的图像X通过编码器encoder编码为一个隐向量(bottleneck)Z,然后再通过解码器decoder解码为重构图像X',它将自己编码压缩再还原故称自编码。结构如下图所示:
一般distance距离函数选择均方误差(Mean Square Error, MSE)。AE与PCA作用相同,通过压缩数据实现降维,还能把降维后的数据进行重构生成图像,但PCA的通过计算特征值实现线性变换,而AE则是非线性。
VAE
如果中间的隐向量的每一分量取值不是直接来自Encoder,而是在一个分布上进行采样,那么就是变分自编码器(Variational Auto Encoder,VAE),结构如下图所示:
还是上面的例子,这里的Z维度还是1 x 20,但是每一分量不是直接来自Encoder,而是在一个分布上进行采样计算,一般来说分布选择正态分布(当然也可以是其他分布)。每个正态分布的
在Encoder的过程中给定x得到z就是计算后验概率
边缘似然度
得到损失函数:
GAN
生成对抗网络(Generative Adversarial Nets, GAN)需要同时训练两个模型:生成器(Generator, G)和判别器(Discriminator, D)。生成器的目标是生成与训练集同分布的样本,而判别器的目标是区分生成器生成的样本和训练集中的样本,两者相互博弈最后达到平衡(纳什均衡),生成器能够以假乱真,判别器无法区分真假。
生成器和判别器最简单的应用就是分别设置为两个MLP。为了让生成器在数据x学习分布
可以得到生成器损失函数:
判别器损失函数:
极端情况下如果D很完美,
计算它们的期望(
当D取到最优解时,上面的最大最小博弈价值函数
当
当
参考文献
- PyTorch-VAE-vanilla_vae.py
- Kingma, Diederik P., and Max Welling. "Auto-encoding variational bayes." arXiv preprint arXiv:1312.6114 (2013).
- DALL·E 2(内含扩散模型介绍)【论文精读】
- Goodfellow, Ian, et al. "Generative adversarial nets." Advances in neural information processing systems 27 (2014).
- 【概率论】先验概率、联合概率、条件概率、后验概率、全概率、贝叶斯公式
- 机器学习方法—优雅的模型(一):变分自编码器(VAE)
- GAN论文逐段精读【论文精读】