您的位置:首页 > 其它

monte carlo simulation

2015-12-22 17:49 399 查看
1.连续状态马尔科夫链\textbf{1.连续状态马尔科夫链}

\quad\quad我们默认本文中的马尔科夫链都是离散时间的。通常,我们所见到的马尔科夫链是离散状态的,但是为了能够模拟出连续随机变量的样本,我们必须引入连续状态马尔科夫链。通常,一个马尔科夫链由初始分布和状态转移矩阵来决定,相似的,连续状态马尔科夫链也是由这两个因素构成,只不过状态转移矩阵没办法来描述连续状态,我们再次引入转移核的概念,转移矩阵描述的是条件概率,同样,转移核描述的是条件概率,假设在tt时刻状态值为xtx_t,那么在t+1t+1时刻的状态的概率密度函数为K(xt,xt+1)K(x_t,x_{t+1}),所以

K(xt,A)=∫AK(xt,xt+1)dxt+1K(x_t,A)=\int_AK(x_t,x_{t+1})dx_{t+1}

通常写成∫AK(xt,dxt+1)\int_AK(x_t,dx_{t+1}),表示t+1时刻状态为A的条件概率。

同样,引出给定初始状态x0x_0,不同时刻状态的联合分布为

P(x1∈A1,...,xn∈An|x0)=∫A1...∫AnK(xn−1,xn)...K(x0,x1)P(x_1 \in A_1,...,x_n \in A_n|x_0)=\int_{A_1}...\int_{A_n}K(x_{n-1},x_n)...K(x_0,x_1)

这和离散状态是相似的。

同样给出chapman-Kolmogorov 方程.目的就是给出n阶转移核,和离散状态n阶转移矩阵相似。For every (m,n) ∈\in N2N^2,

Km+n(x,A)=∫y∈YKn(y,A)Km(x,dy)K^{m+n}(x,A)=\int_{y \in Y}K^n(y,A)K^m(x,dy)

最后我们给出连续状态马尔科夫链的平稳分布和detailed balance condition\textbf{detailed balance condition}的关系,这和MCMC联系紧密。

平稳分布.\textbf{平稳分布.}不同时刻的状态分布相同,都为π\pi,这个π\pi就是平稳分布

detailed balance condition.\textbf{detailed balance condition.}一个马尔科夫链,其转移核为K满足detailed balanced condition,即存在函数f(x)f(x)

K(y,x)f(y)=K(x,y)f(x)K(y,x)f(y)=K(x,y)f(x)

对每一个(x,y)(x,y)成立

如何一个概率密度函数π使得马尔科夫链的转移核满足\color{red}{如何一个概率密度函数\pi使得马尔科夫链的转移核满足}

detailedbalancedcondition\color{red}{detailed balanced condition},

那么这个概率密度函数π就是该马尔科夫链的平稳分布。\color{red}{那么这个概率密度函数\pi就是该马尔科夫链的平稳分布。}

(靠,写了半天,只有这个有用。。,但是。。还没完,我靠了。。。不写了,不是很影响,在下面的metropolis-hastings算法中,我会说明如何构造相关的量的)

2.MCMC method for simulation.\textbf{2.MCMC method for simulation.}引用monte carlo statistical method【点这里】中的定义7.1.

\quad\quadMarkov chain Monte Carlo method for the simulation of distribution ff is ay method producing an ergodic markov chain (X(t)X^{(t)}) whose stationary distribution is ff.

\quad\quad核心在于产生一个markov chain 使得我们需要模拟的分布是这个markov chain 的平稳分布,同时是遍历各态的,这样,我们就可以根据分布函数ff进行抽样了。

3.metropolis hastings method.\textbf{3.metropolis hastings method.}

Given x(t)x^{(t)},

1.Generate Yt∼q(y|x(t)).Y_t \sim q(y|x^{(t)}).

2.Take

\quad\quad X(t+1)=YtX^{(t+1)} =Y_t with probability ρ(x(t),Yt)\rho(x^{(t)},Y_t)

\quad\quadX(t+1)=X(t)X^{(t+1)}=X^{(t)} with probability 1-ρ(x(t),Yt)\rho(x^{(t)},Y_t)

where

ρ(x,y)=min{f(y)f(x)q(x|y)q(y|x),1}\rho(x,y)=min\{ \frac {f(y)}{f(x)} \frac {q(x|y)}{q(y|x)},1 \}

the distribution q is called the instrumental distribution and the probability ρ(x,y)\rho(x,y) the metropolis-hastings acceptance proability.

结论:如果算法中的q(y|x)q(y|x)满足如下两个条件

P[f(x(t))q(Yt|x(t))≤f(Yt)q(x(t)|Yt)]<1P[f(x^{(t)})q(Y_t|x^{(t)}) \leq f(Y_t)q(x^{(t)}|Y_t)] < 1

q(y|x)>0q(y|x) > 0

那么如果h∈L1(f)h \in L^1(f),那么

limT→∞1T∑t=1Th(X(t))=∫h(x)f(x)dx\lim_{T \rightarrow \infty} \frac{1}{T} \sum_{t=1}^T h(X^{(t)})=\int h(x)f(x)dx

limn→∞||∫Kn(x,.)μ(dx)−f||=0\lim_{n \rightarrow \infty}|| \int K^n(x,.)\mu(dx)-f||=0

μ\mu是初始状态分布。

4.gibbs抽样.\textbf{4.gibbs抽样.}

如果我们已知X=x1,x2,...,xDX={x_1,x_2,...,x_D}的联合分布f(X)f(X),我们想要得到XX的样本,我们可以用gibbs抽样的方法来得到关于x1x_1的样本,具体的过程如下



关键在于条件分布的抽样确定

我们可以用下式来

p(X1=x1|X2=x(i−1)2,...,XD=x(i−1)D)=p(X1=x1,X2=x(i−1)2,...XD=x(i−1)D)p(X2=xi−12,...,XD=x(i−1)D)p(X_1=x_1|X_2=x_2^{(i-1)},...,X_D=x_D^{(i-1)})=\frac{p(X_1=x_1,X_2=x_2^{(i-1)},...X_D=x_D^{(i-1)})}{p(X_2=x_2^{i-1},...,X_D=x_D^{(i-1)})}

上式的右边的分母是一个标准化的东西,跟X1X_1无关,所以这个条件分布是和p(X1=x1,X2=x(i−1)2,...XD=x(i−1)D)p(X_1=x_1,X_2=x_2^{(i-1)},...X_D=x_D^{(i-1)})呈正比,所以,我们在对这个条件概率抽样的时候,是可以不用担心分布这一项的,抽样是不会用到这一项的
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: