[关闭]
@Hederahelix 2015-05-31T23:30:40.000000Z 字数 10420 阅读 3724

蒙特卡洛方法

机器学习


常见使用场景

机器学习中经常会遇到对复杂的分布做加和或积分,例如在贝叶斯方法中,往往要对参数做积分,P(t|X)=p(t|θ)p(θ|X)dθ,频率派中EM算法的E步也是一个求期望的过程,Q(θ,θold)=p(Z|X,θold)log p(Z,X|θ)dZ,这些积分或者期望往往都是intractable的。对于这个问题,我们可以使用变分来解决,变分是通过最优化方法寻找一个和p(θ|X)p(Z|X,θold)近似且好积分的分布。而在这篇博文中,我们将介绍sampling的方法,举个简单的例子:比如我们遇到这种形式E[f]=f(z)p(z),dz,如果我们从p(z)中sampling一个数据集z(l),然后再求个平均f^=1LLl=1f(z(l))来近似f(z)的期望,so问题就解决了,关键是如何从p(z)中做无偏的sampling。现在的问题转换为给定一个概率分布,我们如何在计算机中生成它的样本。一般而言均匀分布的样本是相对容易生成的。 通过线性同余发生器可以生成伪随机数,这些伪随机数序列的各种统计指标和均匀分布的理论计算结果非常接近。这样的伪随机序列就有比较好的统计性质,可以被当成真实的随机数使用。而我们常见的概率分布,无论是连续的还是离散的分布,都可以基于均匀分布的样本生成。

蒙特卡洛方法

1.Inverse transform sampling

我们知道,计算机本身是无法产生真正的随机数的,但是可以根据一定的算法产生伪随机数。最古老最简单的莫过于线性同余发生器:

xn+1=(axn+c)modm
式子中的ac是一些数学知识推导出的合适的常数。但是我们看到,这种算法产生的下一个随机数完全依赖现在的随机数的大小,而且当你的随机数序列足够大的时候,随机数将出现重复子序列的情况。当然,理论发展到今天,有很多更加先进的随机数产生算法出现,比如python数值运算库numpy用的是Mersenne Twister等。但是不管算法如何发展,这些都不是本质上的随机数,用冯诺依曼的一句话说就是:

Anyone who considers arithmetic methods of producing random digits is, of course, in a state of sin.

OK,根据上面的算法现在我们有了均匀分布的随机数,但是如何产生满足其他分布(比如高斯分布)下的随机数呢?一种可选的简单的方法是 Inverse transform sampling。它的原理是利用累积分布函数(CDF,cumulative distribution function)来处理。

CDF

举个列子,我们想对高斯分布采样,首先在 y 轴上产生(0,1)之间的均匀分布的随机数,水平向右投影到高斯累计分布函数上,然后垂直向下投影到 x 轴,得到的就是高斯分布的一个实例。可见高斯分布的随机数实际就是均匀分布随机数在高斯分布的 CDF 函数下的逆映射。当然,在实际操作中,更有效的计算方法有Box-Muller_transform ,Ziggurat algorithm 等,这些方法 tricky and faster,没有深入了解,这里也不多说了。

2.Rejection Sampling

Rejection Sampling和Importance Sampling都是基于proposal distribution的sampling,这两种方法都是假设直接从分布p(z)采样很困难,但可以找到一个相对更容易采用的分布q(z),即proposal distribution。

假设分布p(z)=1Zp^(z),其中Zp(z)中与z无关的一个因子。之所以要分离开来写,是因为有时候p(z)中与z无关的部分可能比较复杂,难以计算。例如p(z|x)=p(x,z)p(x),p(x)=p(x,z)dz,其中,p(x)z无关且难以计算。因此,在大多数的sampling中,只需要利用与z有关部分即可进行采样的算法,这样就避开了对复杂的Z的计算。

Rejection Sampling
zq(z)分布抽样,而接受率是p^(z)kq(z),所以

p(accept)={p^(z)/kq(z)}q(z)dz=1kp^(z)dz

3.Importance Sampling

Importance Sampling和Rejection Sampling类似都是假设对p(z)采样比较困难,不过对于一个给定的z,却可容易的计算其概率值p(z)。但是与Rejection Sampling不同的是,Importance Sampling不是求p(z)样例,而是直接计算函数f(z)在该分布下的期望。因为p(z)本身采样困难,所以我们还是得像Rejection sampling那样,找到一个更容易采样的分布q(z),并且假设从q(z)采样了L个样本。那么:

E[f(z)]=f(z)p(z)dz=f(z)p(z)q(z)q(z)dz1Ll=1Lp(zl)q(zl)f(zl)

其中rl=p(zl)q(zl)被成为importance weights。
再进一步假设:对分布p(z)的认识集中在p(z)的与z相关的部分p^(z),其normalization constant Zp还未知。同时也从q(z)中分离出一个常数Zq,那么:

E[f(z)]=f(z)p(z)dz=ZqZpf(z)p^(z)q^(z)q(z)dzZqZp1Ll=1Lp^(zl)q^(zl)f(zl)

其中r^l=p^(zl)q^(zl),同样地,可以计算:

ZpZq=1Zqp^(z)dz=p^(z)q^(z)q(z)dz1Ll=1Lr^l

于是最终得到:
E[f(z)]=l=1Lwlf(zl)

其中,zl是分布从q(z)采样的L个样本,而
wl=r^lLm=1r^m

注意,在wl的计算中,已经只需要分布p(z)的与z有关部分p^(z)。从而达到了避开Z的目的。

马尔可夫蒙特卡洛

由于Rejection sampling和Importance sampling这两种方法在高维下都会失效。我们的目标还是对于给定的概率分布p(x),我们希望能有便捷的方式生成它对应的样本。由于马氏链能收敛到平稳分布,于是一个很的漂亮想法是:如果我们能构造一个转移矩阵为P的马氏链,使得该马氏链的平稳分布恰好是p(x), 那么我们从任何一个初始状态x0出发沿着马氏链转移,得到一个转移序列 x0,x1,x2,⋯xn,xn+1⋯,, 如果马氏链在第n步已经收敛了,于是我们就得到了样本xn,xn+1⋯。

这个绝妙的想法在1953年被Metropolis想到了,为了研究粒子系统的平稳性质,Metropolis考虑了物理学中常见的波尔兹曼分布的采样问题,首次提出了基于马氏链的蒙特卡罗方法,即Metropolis算法,并在最早的计算机上编程实现。Metropolis 算法是首个普适的采样方法,并启发了一系列 MCMC方法,所以人们把它视为随机模拟技术腾飞的起点。Metropolis的这篇论文被收录在《统计学中的重大突破》中,Metropolis算法也被遴选为二十世纪的十个最重要的算法之一。

我们接下来介绍的MCMC 算法是Metropolis算法的一个改进变种,即常用的 Metropolis-Hastings 算法。由上一节的例子和定理我们看到了,马氏链的收敛性质主要由转移矩阵P决定,所以基于马氏链做采样的关键问题是如何构造转移矩阵P,使得平稳分布恰好是我们要的分布p(x)。如何能做到这一点呢?我们主要使用如下的定理。

如果非周期马氏链的转移矩阵T(z,z)和分布π(x)满足

π(i)T(i,j)=π(j)T(j,i)

π(x)是马氏链的平稳分布,上式被称为细致平稳条件(detailed balance condition)。
满足细致平稳条件就能收敛到平稳分布,平稳分布的定义

π(z)=zT(z,z)π(z)π=πP

我们将细致平稳条件公式带入到上式右边,即可推出平稳分布定义

zT(z,z)π(z)=zT(z,z)π(z)=π(z)zp(z|z)=π(z)

1.Metropolis-Hastings

假设我们已经有一个转移矩阵q(i,j)(表示从状态i转移到状态j的概率,也可以写为q(j|i)),显然,通常情况下

p(i)q(i,j)p(j)q(j,i)

也就是细致平稳条件不成立,所以p(x)不太可能是这个马氏链的平稳分布。我们可否对马氏链做一个改造,使得细致平稳条件成立呢?譬如,我们引入一个a(i,j), 我们希望
p(i)q(i,j)a(i,j)q(i,j)=p(j)q(j,i)a(j,i)q(j,i)

取什么样的a(i,j)以上等式能成立呢?最简单的,按照对称性,我们可以取
a(i,j)=p(j)q(j,i)a(j,i)=p(i)q(i,j)

于是细致平稳条件就成立了,我们把原来具有转移矩阵Q的一个很普通的马氏链,改造为了具有转移矩阵Q'的马氏链,而Q恰好满足细致平稳条件,由此马氏链的平稳分布就是p(x)!

在改造Q的过程中引入的a(i,j)称为接受率,物理意义可以理解为在原来的马氏链上,从状态iq(i,j)的概率转跳转到状态j的时候,我们以a(i,j)的概率接受这个转移,于是得到新的马氏链Q的转移概率为q(i,j)a(i,j)
转移矩阵
假设我们已经有一个转移矩阵Q(对应元素为q(i,j)),把以上的过程整理一下,我们就得到了如下的用于采样概率分布的算法

有没有办法提升一些接受率呢?
假设a(i,j)=0.1,a(j,i)=0.2, 此时满足细致平稳条件,于是

p(i)q(i,j)×0.1=p(j)q(j,i)×0.2

上式两边扩大5倍,我们改写为
p(i)q(i,j)×0.5=p(j)q(j,i)×1

看,我们提高了接受率,而细致平稳条件并没有打破!这启发我们可以把细致平稳条件式中的a(i,j)a(j,i)同比例放大,使得两数中最大的一个放大到1,这样我们就提高了采样中的跳转接受率。所以我们可以取

a(i,j)=min{p(j)q(j,i)p(i)q(i,j),1}

于是,经过对上述 basic Metropolis 采样算法中接受率的微小改造,我们就得到了如下教科书中最常见的 Metropolis-Hastings 算法。

2.Gibbs Sampling

对于高维的情形,由于接受率a的存在(通常a<1), 以上 Metropolis-Hastings 算法的效率不够高。能否找到一个转移矩阵Q使得接受率a=1呢?我们先看看二维的情形,假设有一个概率分布p(x,y),考察x坐标相同的两个点A(x1,y1)A(x1,y2)我们发现

p(x1,y1)p(y2|x1)=p(x1)p(y1|x1)p(y2|x1)p(x1,y2)p(y1|x1)=p(x1)p(y2|x1)p(y1|x1)

所以得到

p(x1,y1)p(y2|x1)=p(x1,y2)p(y1|x1)p(A)p(y2|x1)=p(B)p(y1|x1)(1)

基于以上等式,我们发现,a(i,j)=a(j,i)=1,而且在x=x1这条平行于y轴的直线上,如果使用条件分布p(y|x1)做为任何两个点之间的转移概率,那么任何两个点之间的转移满足细致平稳条件。同样的,如果我们在y=y1这条直线上任意取两个点,也有如下等式

p(A)p(x2|y1)=p(C)p(x1|y1)

平面图
于是我们可以如下构造平面上任意两点之间的转移概率矩阵Q

Q(A,B)=p(yB|x1)Q(A,C)=p(xC|y1)Q(A,D)=0xA=xB=x1yA=yC=y1沿

有了如上的转移矩阵Q,我们很容易验证对平面上任意两点,满足细致平稳条件

p(X)Q(X,Y)=p(Y)Q(Y,X)

于是这个二维空间上的马氏链将收敛到平稳分布 。以上的过程我们很容易推广到高维的情形,对于(1)式,如果x1变为多维情形x⃗ 1,可以看出推导过程不变,所以细致平稳条件同样是成立的
p(x⃗ 1,y1)p(y2|x⃗ 1)=p(x⃗ 1,y2)p(y1|x⃗ 1)

此时转移矩阵Q由条件分布p(y|x⃗ 1)定义。上式只是说明了一根坐标轴的情形,和二维情形类似,很容易验证对所有坐标轴都有类似的结论。所以n维空间中对于概率分布p(x1,x2,...,xn)可以如下定义转移矩阵

Q(A,B)=p(xi|x1,...,xi1,xi+1...,xn)Q(A,D)=0沿xi沿

以上算法收敛后,得到的就是概率分布p(x1,x2,..,xn)的样本,当然这些样本并不独立,但是我们此处要求的是采样得到的样本符合给定的概率分布,并不要求独立。同样的,在以上算法中,坐标轴轮换采样不是必须的,可以在坐标轴轮换中引入随机性,这时候转移矩阵 中任何两个点的转移概率中就会包含坐标轴选择的概率,而在通常的Gibbs Sampling算法中,坐标轴轮换是一个确定性的过程,也就是在给定时刻,在一根固定的坐标轴上转移的概率是1。

应用案例

1.LDA

参考资料

  1. http://www.52nlp.cn/lda-math-mcmc-%e5%92%8c-gibbs-sampling2
  2. PRML, chapter 11
  3. http://blog.quantitations.com/inference/2012/11/24/rejection-sampling-proof/
  4. http://thexbar.me/2014/11/07/reject-sample/
  5. Notes on Pattern Recognition and Machine Learning (Jian Xiao)
  6. Pattern Recognition And Machine Learning 读书会, chapter 11
添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注