@pearl3344
2018-05-24T21:48:13.000000Z
字数 1567
阅读 1030
dl
vae
Kingma, Welling. Auto-Encoding Variational Bayes. ICLR, 2014
latent变量 ,
观测变量 ,
先验分布 ,参数 ;
似然分布 , 参数 。
似然(关于的)函数可以很复杂,比如是神经网络。
true后验分布 不可求,
用神经网络 recognition模型 ,参数 来近似。
同时关于 和 最大化 。
naive monte carlo 梯度估计 :方差特别大,有问题。
Stochastic Gradient VB 估计:
例如:
这不就是z从后验分布采样吗?Monte Carlo积分 不应该就是这样吗?为什么叫统计变分贝叶斯估计。。?
→ u(,x), sigma(,x) → → ( , )
Obj= CrossEntropy[ , ( , )] + KL[ N(u(,x),sigma(,x)) | N(0,1) ]