R语言实现MCMC中的Metropolis–Hastings算法与吉布斯采样|附代码数据

发布时间 2023-08-15 20:16:52作者: 拓端tecdat

原文链接:http://tecdat.cn/?p=3772

原文出处:拓端数据部落公众号

 最近我们被客户要求撰写关于MCMC的研究报告,包括一些图形和统计输出。

创建测试数据

第一步,我们创建一些测试数据,用来拟合我们的模型。我们假设预测变量和因变量之间存在线性关系,所以我们用线性模型并添加一些噪音。

 
 
trueA <- 5

trueB <- 0

trueSd <- 10

sampleSize <- 31

 

# 创建独立的x值

x <- (-(sampleSize-1)/2):((sampleSize-1)/2)

# 根据ax + b + N(0,sd)创建因变量
y <-  trueA * x + trueB + rnorm(n=sampleSize,mean=0,sd=trueSd)

 

plot(x,y, main="Test Data")

定义统计模型

下一步是指定统计模型。我们已经知道数据是用x和y之间的线性关系y = a * x + b和带有标准差sd的正态误差模型N(0,sd)创建的,所以让我们使用相同的模型进行拟合,看看如果我们可以检索我们的原始参数值。

从模型中导出似然函数

为了估计贝叶斯分析中的参数,我们需要导出我们想要拟合的模型的似然函数似然函数是我们期望观察到的数据以我们所看到的模型的参数为条件发生的概率(密度)。因此,鉴于我们的线性模型y = b + a*x + N(0,sd)将参数(a, b, sd)作为输入,我们必须返回在这个模型下获得上述测试数据的概率(这听起来比较复杂,正如你在代码中看到的,我们只是计算预测值y = b + a*x与观察到的y之间的差异,然后我们必须查找这种偏差发生的概率密度(使用dnorm)。

 
 
likelihood <- function(param){

    a = param[1]

    b = param[2]

    sd = param[3]

     

    pred = a*x + b

     sumll = sum(singlelikelihoods)

     (sumll)  

}

 

 slopevalues <- function(x){return(likelihood(c(x, trueB, trueSd)))}

斜率参数对数似然曲线

作为说明,代码的最后几行绘制了斜率参数a的一系列参数值的似然函数。

为什么我们使用对数

您注意到结果是似然函数中概率的对数,这也是我对所有数据点的概率求和的原因(乘积的对数等于对数之和)。我们为什么要做这个? 因为很多小概率乘以的可能性很快就会变得非常小(比如10 ^ -34)。在某些阶段,计算机程序存在数字四舍五入的问题。 

定义先验

第二步,与贝叶斯统计中一样,我们必须为每个参数指定先验分布。为了方便起见,我对所有三个参数使用了均匀分布和正态分布。 无信息先验通常是1 / sigma(如果你想了解原因,请看这里)。

 
 
#先验分布

prior <- function(param){

    a = param[1]

    b = param[2]

    sd = param[3]

    aprior =  (a, min=0, max=10, log = T)

    bprior = dnorm(b, sd = 5, log = T)

 }

****后验

先验和似然性的乘积是MCMC将要处理的实际数量。这个函数被称为后验 。同样,在这里我们使用加总,因为我们使用对数。

 
 
posterior <- function(param){

   return ( (param) + prior(param))

}

 

**MCMC

接下来是Metropolis-Hastings算法。该算法最常见的应用之一(如本例所示)是从贝叶斯统计中的后验密度中提取样本。然而,原则上,该算法可用于从任何可积函数中进行采样。因此,该算法的目的是在参数空间中跳转,但是以某种方式使得在某一点上的概率与我们采样的函数成比例(这通常称为目标函数)。在我们的例子中,这是上面定义的后验。

这是通过

  1. 从随机参数值开始
  2. 根据称为提议函数的某个概率密度,选择接近旧值的新参数值
  3. 以概率p(新)/ p(旧)跳到这个新点,其中p是目标函数,p> 1表示跳跃

当我们运行这个算法时,它访问的参数的分布会收敛到目标分布p。那么,让我们在R中得到 :

 
 
########Metropolis算法# ################

 

proposalfunction <- function(param){

    return(rnorm(3,mean = param, sd= c(0.1,0.5,0.3)))

}

 

run_metropolis_MCMC <- function(startvalue, iterations){

      for (i in 1:iterations){

          

         if (runif(1) < probab){

            chain[i+1,] = proposal

        }else{

            chain[i+1,] = chain[i,]

        }

    }

    return(chain)

}

 

 chain = run_metropolis_MCMC(startvalue, 10000)

 

burnIn = 5000

acceptance = 1-mean(duplicated(chain[-(1:burnIn),]))

使用后验的对数可能在开始时有点混乱,特别是当您查看计算接受概率的行时(probab = exp(后验分布(提议分布) - 后验(链[i,])) )。要理解我们为什么这样做,请注意p1 / p2 = exp [log(p1)-log(p2)]。

算法的第一步可能受初始值的偏差,因此通常被丢弃用于进一步分析 。要看的一个有趣的输出是接受率: 接受标准拒绝提议的频率是多少?接受率可以受提议函数的影响:通常,提议越接近,接受率越大。然而,非常高的接受率通常是无益的:这意味着算法“停留”在同一点 。可以证明,20%到30%的接受率对于典型应用来说是最佳的 。

 

 
 
###概要#######################

 

par(mfrow = c(2,3))

hist( [-(1:burnIn),1],nclass=30, , main="Posterior of a", xlab="True value = red line" )

abline(v = mean(chain[-(1:burnIn),1]))

 

 

#进行比较:

summary(lm(y~x))

所得到的图应该看起来像下面的图。你看到我们检索到了或多或少用于创建数据的原始参数,你还看到我们在最高后验值周围得到了一定的区域,这些后验值也有一些数据,这相当于贝叶斯的置信区间。

图: 上排显示斜率(a)的后验估计,截距(b)和误差的标准偏差(sd)。下一行显示马尔可夫链参数值。

 

还有问题吗?请在下面留言!


最受欢迎的见解

1.matlab使用贝叶斯优化的深度学习

2.matlab贝叶斯隐马尔可夫hmm模型实现

3.R语言Gibbs抽样的贝叶斯简单线性回归仿真

4.R语言中的block Gibbs吉布斯采样贝叶斯多元线性回归

5.R语言中的Stan概率编程MCMC采样的贝叶斯模型

6.Python用PyMC3实现贝叶斯线性回归模型

7.R语言使用贝叶斯 层次模型进行空间数据分析

8.R语言随机搜索变量选择SSVS估计贝叶斯向量自回归(BVAR)模型

9.matlab贝叶斯隐马尔可夫hmm模型实现