茆诗松, 汤银才, 《贝叶斯统计》, 中国统计出版社, 2012.9.
这本书错误有点多, 所以我后面写得可能也有很多错误的地方.
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import scipy.stats as stats
def group_inf(data, left, right, group_nums=7):
barwidth= (right - left) / group_nums
groups = np.linspace(left, right, group_nums)
group_count = []
for i in range(group_nums):
if i is group_nums-1:
index = data >= groups[i]
else:
index = (data >= groups[i]) & (data < groups[i+1])
data = data[~index]
group_count.append(index.sum())
return groups+barwidth/2, np.array(group_count), barwidth
看的论文需要用到MCMC, 就一边学习一边整理一下, 应该是没有什么干货的.
格子点抽样法
将连续的密度函数进行离散化近似, 然后根据离散分布进行抽样. 适合低维参数后验分布的抽样.
设是低维的参数, 其后验密度为(非贝叶斯情形下, 对于普通的密度函数也是类似的), 格子点抽样方法如下:
-
确定格子点抽样的一个有限区域, 它包括后验密度众数, 且覆盖了后验分布几乎所有的可能, 即;
-
将分割成一些小区域, 并计算后验密度(注意, 如果对于的密度函数有核的话, 只需要计算核的值即可)在格子点上的值;
-
正则化;
-
用有放回的抽样方法从上述离散后验分布中抽取一定数量的样本.
一维正态分布
N = 40 #样本点位置
x = np.linspace(-3, 3, N) #-3, 3取N个点
p = lambda x: np.exp(-x**2 / 2) #计算对应的值
p2 = p(x)
p2 = p2 / p2.sum() #正则化
barwidth = 6 / N
plt.bar(x, p2, barwidth, edgecolor="black");
在这里插入图片描述
sample_nums = 1000 #采样次数
samples = pd.Series(np.random.choice(x, size=sample_nums, p=p2)) #抽取样本
data = samples.value_counts()
plt.bar(data.index, data.values, barwidth,
edgecolor='black');
在这里插入图片描述
多参数模型中的抽样
假设参数为, 为我们感兴趣的参数, 不一定是1维的.
方法1: 由联合后验分布对积分, 获得的边际分布
如果上式的积分有显示表达, 可用传统的贝叶斯方法处理? 但是对于许多实际问题, 上述积分无法或很难得到显示表示.
方法2: 由联合后验分布直接抽样, 然后仅考察感兴趣参数的样本, 这种方法当参数的维数较低时是可行的.
方法3: 将联合后验分布进行分解, 写成,这时可将表示成下面的积分形式
可以解释成的加权平均, 权函数维边际后验分布. 显然这要求是易得的.
具体步骤如下:
- 从边际后验分布抽取;
- 给定上面已经抽得的, 从条件后验分布中抽取.
从书上抄一个例子, 下面是20位选手的马拉松比赛的成绩, 假定它们来自正态分布的样本, 先验分布为:
则其后验分布具有形式
其中为样本容量, 为样本均值, 为样本方差.
x = [
182, 201, 221, 234, 237, 251, 261, 266, 267, 273,
286, 291, 292, 296, 296, 296, 326, 352, 359, 365
]
x = pd.Series(x) #数据
n = len(x)
x_mean = x.mean() #均值
x_variance = x.var() #方差
n, x_mean, x_variance
(20, 277.6, 2454.0421052631577)
计算的边际后验分布
它是自由度为n-1, 位置参数为, 刻度参数为的t分布, 即
samples = stats.t.rvs(n-1, size=1000) # 按照t分布抽取1000个样本
mus = samples * np.sqrt(x_variance / n) + x_mean #转换为均值
the_min, the_max = mus.min(), mus.max()
groups, group_count, barwidth = group_inf(mus, the_min, the_max, group_nums=20)
fig, ax = plt.subplots()
ax.bar(groups, group_count/1000, barwidth, edgecolor='black')
ax.plot(groups, group_count/1000, color='red')
ax.set_xlabel(r'$\mu$')
ax.set_ylabel('Density');
在这里插入图片描述
接下来, 通过联合后验分布的分解, 利用第三种方法进行贝叶斯分析,
容易得到
根据(5)式可以得到
故它是倒卡方分布的核, 整理后得到
samples_sigma = stats.chi2.rvs(n+3, size=1000) #从自由度n-1的卡方分布中抽取Y, 并解出对于的sigma^2
sigma2s = (n-1) * x_variance / samples_sigma
mus = stats.norm.rvs(x_mean, scale=np.sqrt(sigma2s / n)) #给定方差, 从正态分布中抽取均值, scale参数相当于标准差
the_min, the_max = mus.min(), mus.max()
groups, group_count, barwidth = group_inf(mus, the_min, the_max, group_nums=20)
fig, ax = plt.subplots()
ax.bar(groups, group_count/1000, barwidth, edgecolor='black')
ax.plot(groups, group_count/1000, color='red')
ax.set_xlabel(r'$\mu$')
ax.set_ylabel('Density');
在这里插入图片描述
Gibbs 抽样
定义, 在Gibb抽样中, 称
为的满条件分布, 其中. 假设这个满条件分布均可容易抽样, 则Gibbs抽样可以如下进行:
- 给定参数的初始值: ;
- 对进行下面的迭代更新:
- 从分布中产生;
- 从分布中产生;
- ……
- 从分布中产生;
例子1
回到马拉松的例子, 由(5)式得到的条件后验分布为:
即
其中.
另外, 的条件后验分布以及由(9)式得到了.
def garnish(**init):
def decorater(func):
def wrapper(*args, **kwargs):
kwargs.update(init)
result = func(*args, **kwargs)
return result
wrapper.__name__ = func.__name__
wrapper.__doc__ = func.__doc__
return wrapper
return decorater
@garnish(n=n, x_mean=x_mean, x_variance=x_variance)
def A(mu, n, x_mean, x_variance):
return (n-1) * x_variance + n * (mu - x_mean) ** 2
mu, sigma2 = x_mean/2, x_variance / n #初始化 实际上方差的初始化没有意义
t = 1500
process_mu = [mu]
process_sigma2 = [sigma2]
for i in range(t):
temp = stats.chi2.rvs(n+4)
sigma2 = A(mu) / temp
mu = stats.norm.rvs(x_mean, scale=np.sqrt(sigma2 / n))
process_mu.append(mu)
process_sigma2.append(sigma2)
fig, ax = plt.subplots()
ax.plot(np.arange(1, t+1), process_mu[1:])
ax.set_xlabel("times")
ax.set_ylabel(r"$\mu$");
在这里插入图片描述
例子2
当Gibbs抽样中的满条件后验分布不易抽样的时候, 我们可以通过引入辅助变量(实际上还有别的方法, 这里就记一下这一种), 拆分后验分布中复杂的项, 使得辅助变量与模型参数的满条件后验分布变得容易抽样.
在基因连锁模型中, 某个实验有5个可能的结果, 出现的概率分别为:
其中为位置参数. 现在进行独立的试验, 出现各结果的次数为.
ys = (14, 1, 1, 1, 5)
若取的先验为无信息平坦先验
则的后验分布为
上面的分布不容易抽样, 可以引入辅助变量将概率拆分.
则服从多项分布
其中表示试验次数为, 参数为的多项分布, 是不可观测的, 可看作缺失数据, 在贝叶斯分析红可以看作参数.
在无信息平坦先验下, 的联合后验分布为
则
所以
同理
另外:
其中表二项分布, 注意, 为什么次数是, 这是根据我们的对的构造得来的.
从而
theta, eta, z1, z2 = (0.1, 0.8, 7, 0.1) #初始化参数
t = 5000
process_theta = [eta]
process_eta = [theta]
for i in range(t):
temp = stats.beta.rvs(z1 + ys[1] + 1, ys[4] + 1) #采样并更新theta
theta = (1 - eta) * temp
temp = stats.beta.rvs(z2 + ys[2] + 1, ys[4] + 1) #采样并更新eta
eta = (1 - theta) * temp
z1 = stats.binom.rvs(ys[0], 2 * theta / (2 * theta + 1)) #采样并更新z1
z2 = stats.binom.rvs(ys[3], 2 * eta / (2 * eta + 3)) #采样并更新z2
process_theta.append(theta)
process_eta.append(eta)
fig, ax = plt.subplots(1, 2)
ax[0].plot(np.arange(t+1), process_theta)
ax[1].plot(np.arange(t+1), process_eta)
ax[0].set_xlabel('t')
ax[1].set_xlabel('t')
ax[0].set_ylabel(r'$\theta$')
ax[1].set_ylabel(r'$\eta$');
在这里插入图片描述
"""
这部分计算后验均值, 每一步的
"""
theta_sum = np.cumsum(process_theta)
eta_sum = np.cumsum(process_eta)
theta_mean = theta_sum / np.arange(1, len(theta_sum)+1)
eta_mean = eta_sum / np.arange(1, len(eta_sum)+1)
fig, ax = plt.subplots(1, 2)
ax[0].plot(np.arange(t+1), theta_mean)
ax[1].plot(np.arange(t+1), eta_mean)
ax[0].set_xlabel('t')
ax[1].set_xlabel('t')
ax[0].set_ylabel(r'$\theta$')
ax[1].set_ylabel(r'$\eta$')
plt.tight_layout();
在这里插入图片描述
fig, ax = plt.subplots()
start = int(t / 10)
ax.scatter(process_theta[start:], process_eta[start:]) #密集恐惧症患者不要将点空心化, 有点冷
ax.set_xlabel(r'$\theta$')
ax.set_ylabel(r'$\eta$');
在这里插入图片描述
Metropolis-Hastings算法
Metropolis-Hastings算法(MH算法)是一类最为常用的MCMC方法, 它先由Metropolis等提出, 后由Hastings进行推广, 包括特殊情况Gibbs抽样, 及另外三个特殊的MH抽样法: Metropolis抽样, 独立性抽样, 随机游动Metropolis抽样等. MCMC方法的精髓是构造合适的马氏链, 使其平稳分布就是待抽样的目标分布. 在贝叶斯分析中此目标分布就是后验分布. 因此MH算法的主要任务是产生满足上述要求的马氏链, 即在给定状态下, 产生下一个状态. 所有MH算法的构造框架如下:
- 构造合适的简易分布;
- 从产生候选点;
- 按一定的接受概率形成的法则取判断是否接受. 若被接受, 则令, 否则.
MH抽样方法通过如下方式产生马氏链
- 构造合适的建议分布;
- 从某个分布g中产生(通常直接给定);
- 重复下面过程直至马氏链达到平稳状态
- 从中产生候选点;
- 从均匀分布中产生U;
- 判断: 若
则接受, 并令, 否则; - 增加t, 进入下一个循环
Metropolis抽样
Metropolis 抽样是MH算法中的一种特殊抽样方法, 其中的建议分布是对称的, 即满足
相应的接受概率变为
随机游动Metropolis抽样
随机游动Metropolis抽样是Metropolis抽样的一个特例,其中对称的建议分布为
实际使用时可先从中产生一个增量, 然后取候选点为. 例如从分布中产生的候选点克表示为.
独立性抽样法
独立性抽样法也是MH抽样法的特殊情况, 其简易分布不依赖于链前面的值, 即, 这时的接受概率为
逐分量MH算法
当目标分布是多维时, 用MH算法进行整体更新往往比较困难, 转而对其分量逐个更新, 这就是所谓的逐分量MH算法的思想, 分量的更新通过满条件分布的抽样来完成,故这种方法又称为Metropolis中的Gibbs算法. 仍用后验分布为目标分布来进行叙述. 记, , 则
它们分别表示在第t步链的状态和除第i个分量外其它分量在第t步的状态,为的满条件分布. 在逐分量的MG算法中从t步的更新到t+1步的分p个小步来完成: 对,
- 选择建议分布, 其中
- 从建议分布中产生候选点,并以概率
接受.
可见, Gibbs抽样是一种逐分量的MH抽样方法, 其建议分布选为满条件分布.
一个例子
考察54位老年人的智力测试成绩, 数据如下
x = (
9, 13, 6, 8, 10,
4, 14, 8, 11, 7,
9, 7, 5, 14, 13,
16, 10, 12, 11, 14,
15, 18, 7, 16, 9,
9, 11, 13, 15, 13,
10, 11, 6, 17, 14,
19, 9, 11, 14, 10,
16, 10, 16, 14, 13,
13, 9, 15, 10, 11,
12, 4, 14, 20
)
y = [1] * 14 + [0] * 40
df = pd.DataFrame({'x':x, 'y':y}, index=np.arange(1, 55))
df
<div>
<style scoped>
.dataframe tbody tr th:only-of-type {
vertical-align: middle;
}
.dataframe tbody tr th {
vertical-align: top;
}
.dataframe thead th {
text-align: right;
}
</style>
<table border="1" class="dataframe">
<thead>
<tr style="text-align: right;">
<th></th>
<th>x</th>
<th>y</th>
</tr>
</thead>
<tbody>
<tr>
<th>1</th>
<td>9</td>
<td>1</td>
</tr>
<tr>
<th>2</th>
<td>13</td>
<td>1</td>
</tr>
<tr>
<th>3</th>
<td>6</td>
<td>1</td>
</tr>
<tr>
<th>4</th>
<td>8</td>
<td>1</td>
</tr>
<tr>
<th>5</th>
<td>10</td>
<td>1</td>
</tr>
<tr>
<th>6</th>
<td>4</td>
<td>1</td>
</tr>
<tr>
<th>7</th>
<td>14</td>
<td>1</td>
</tr>
<tr>
<th>8</th>
<td>8</td>
<td>1</td>
</tr>
<tr>
<th>9</th>
<td>11</td>
<td>1</td>
</tr>
<tr>
<th>10</th>
<td>7</td>
<td>1</td>
</tr>
<tr>
<th>11</th>
<td>9</td>
<td>1</td>
</tr>
<tr>
<th>12</th>
<td>7</td>
<td>1</td>
</tr>
<tr>
<th>13</th>
<td>5</td>
<td>1</td>
</tr>
<tr>
<th>14</th>
<td>14</td>
<td>1</td>
</tr>
<tr>
<th>15</th>
<td>13</td>
<td>0</td>
</tr>
<tr>
<th>16</th>
<td>16</td>
<td>0</td>
</tr>
<tr>
<th>17</th>
<td>10</td>
<td>0</td>
</tr>
<tr>
<th>18</th>
<td>12</td>
<td>0</td>
</tr>
<tr>
<th>19</th>
<td>11</td>
<td>0</td>
</tr>
<tr>
<th>20</th>
<td>14</td>
<td>0</td>
</tr>
<tr>
<th>21</th>
<td>15</td>
<td>0</td>
</tr>
<tr>
<th>22</th>
<td>18</td>
<td>0</td>
</tr>
<tr>
<th>23</th>
<td>7</td>
<td>0</td>
</tr>
<tr>
<th>24</th>
<td>16</td>
<td>0</td>
</tr>
<tr>
<th>25</th>
<td>9</td>
<td>0</td>
</tr>
<tr>
<th>26</th>
<td>9</td>
<td>0</td>
</tr>
<tr>
<th>27</th>
<td>11</td>
<td>0</td>
</tr>
<tr>
<th>28</th>
<td>13</td>
<td>0</td>
</tr>
<tr>
<th>29</th>
<td>15</td>
<td>0</td>
</tr>
<tr>
<th>30</th>
<td>13</td>
<td>0</td>
</tr>
<tr>
<th>31</th>
<td>10</td>
<td>0</td>
</tr>
<tr>
<th>32</th>
<td>11</td>
<td>0</td>
</tr>
<tr>
<th>33</th>
<td>6</td>
<td>0</td>
</tr>
<tr>
<th>34</th>
<td>17</td>
<td>0</td>
</tr>
<tr>
<th>35</th>
<td>14</td>
<td>0</td>
</tr>
<tr>
<th>36</th>
<td>19</td>
<td>0</td>
</tr>
<tr>
<th>37</th>
<td>9</td>
<td>0</td>
</tr>
<tr>
<th>38</th>
<td>11</td>
<td>0</td>
</tr>
<tr>
<th>39</th>
<td>14</td>
<td>0</td>
</tr>
<tr>
<th>40</th>
<td>10</td>
<td>0</td>
</tr>
<tr>
<th>41</th>
<td>16</td>
<td>0</td>
</tr>
<tr>
<th>42</th>
<td>10</td>
<td>0</td>
</tr>
<tr>
<th>43</th>
<td>16</td>
<td>0</td>
</tr>
<tr>
<th>44</th>
<td>14</td>
<td>0</td>
</tr>
<tr>
<th>45</th>
<td>13</td>
<td>0</td>
</tr>
<tr>
<th>46</th>
<td>13</td>
<td>0</td>
</tr>
<tr>
<th>47</th>
<td>9</td>
<td>0</td>
</tr>
<tr>
<th>48</th>
<td>15</td>
<td>0</td>
</tr>
<tr>
<th>49</th>
<td>10</td>
<td>0</td>
</tr>
<tr>
<th>50</th>
<td>11</td>
<td>0</td>
</tr>
<tr>
<th>51</th>
<td>12</td>
<td>0</td>
</tr>
<tr>
<th>52</th>
<td>4</td>
<td>0</td>
</tr>
<tr>
<th>53</th>
<td>14</td>
<td>0</td>
</tr>
<tr>
<th>54</th>
<td>20</td>
<td>0</td>
</tr>
</tbody>
</table>
</div>
其中分别第i个人的智力水平(为等级分,0-20分)和是否患有老年痴呆症(1为是, 0为否). 研究的兴趣在于发现老年痴呆症. 采用logistic模型来刻画上面的数据:
的先验分布为独立的正态分布:
其中, 设得很大, 表示接近无信息先验分布. 由此我们可以得到的后验分布
随机游动抽样
第t步的建议分布取为
且取为.
def posterior_random_walk(x, y, beta, mu, sigma2):
theta = lambda x: np.exp(beta[0] + beta[1] * x) / ( 1 + np.exp(beta[0] + beta[1] * x))
return np.exp(-(beta[0] - mu[0]) ** 2 / (2 * sigma2[0]) -
(beta[1] - mu[1]) ** 2 / (2 * sigma2[1])) * (
theta(x) ** y * (1 - theta(x)) ** (1 - y)
).prod()
def random_walk(x, y, beta0=0., beta1=0.,
mu=(0., 0.), sigma2=(10000, 10000),
tau=(0.1, 0.1), times=5000):
mu = np.array(mu)
tau = np.array(tau)
process_0 = [beta0]
process_1 = [beta1]
count = 0
for t in range(times):
temp = stats.multivariate_normal.rvs( #采样
mean=(beta0, beta1),
cov=np.diag((tau[0], tau[1]))
)
alpha = min(1, #计算接受概率
posterior_random_walk(x, y, temp, mu, sigma2) /
posterior_random_walk(x, y, (beta0, beta1), mu, sigma2))
if np.random.rand() < alpha:
beta0, beta1 = temp
process_0.append(beta0)
process_1.append(beta1)
count += 1
return process_0, process_1, count / times
process0, process1, acc_rate = random_walk(df['x'], df['y'])
n = len(process0)
n, acc_rate #这个拒绝率也太高了点吧
(671, 0.134)
cum_mean0 = np.cumsum(process0) / np.arange(1, n + 1) #计算遍历均值
cum_mean1 = np.cumsum(process1) / np.arange(1, n + 1)
fig, ax = plt.subplots(2, 2)
for i in range(2):
for j in range(2):
ax[i, j].set_xlabel(r't')
ax[i, j].set_ylabel(r'$\beta^{(t)}_' + str(j) + '$')
ax[0, 0].plot(np.arange(0, n), process0)
ax[0, 1].plot(np.arange(0, n), process1)
ax[1, 0].plot(np.arange(0, n), cum_mean0)
ax[1, 1].plot(np.arange(0, n), cum_mean1)
plt.tight_layout()
在这里插入图片描述
MH抽样 多元正态建议分布
上面的抽样的链的混合效率低下的原因是我们所选取的的建议分布是相互独立的. 解决此问题的一个自然的办法是考虑非独立的建议分布, 且建议分布的相关阵与后验分布的相关阵类似.为此, 我们考虑使用Fisher信息阵(这部分的内容忘了, 不想深究, 就直接套用公式来, 很有可能是错的) , 迭代的建议分布取为
其中为调节参数, 以使算法达到预先设定的接受率. 仍取独立的正态先验, 即, 其中. 由(34)知Fisher信息阵为
其中,
此MH算法的抽烟步骤如下:
- 给定的初值;
- 对于进行下面的迭代,直到收敛为止, 令,
- 计算Fisher信息阵
- 从正态建议分布产生候选点.
- 计算接受概率
并判断是否接受.
def fisher_matrix(x, beta, inv_Sigma, cbeta=1.):
"""
计算Fisher信息阵
"""
extend_x = np.vstack((np.ones_like(x), x))
extend_x = extend_x.astype(float)
temp = np.exp(beta[0] + beta[1] * x)
h = (temp / (1 + temp) ** 2).values
H = extend_x * h @ extend_x.T + inv_Sigma
cov = cbeta ** 2 * np.linalg.inv(H)
return cov
oldbeta:
newbeta: ,
mu: ,
sigma: ,
cov1: ,
cov2: .
def p(x, y, beta):
temp = np.exp(beta[0] + beta[1] * x)
theta = temp / (1 + temp)
theta2 = 1 / (1 + temp)
return (theta ** y * theta2 ** (1 - y)).prod()
def acc_prop(x, y, oldbeta, newbeta, mu, sigma, covold, covnew):
"""计算接受概率"""
p1 = p(x, y, oldbeta)
p2 = p(x, y, newbeta)
phi1 = stats.multivariate_normal.pdf(oldbeta, mean=mu, cov=sigma)
phi2 = stats.multivariate_normal.pdf(newbeta, mean=mu, cov=sigma)
q1 = stats.multivariate_normal.pdf(newbeta, mean=oldbeta, cov=covold)
q2 = stats.multivariate_normal.pdf(oldbeta, mean=newbeta, cov=covnew)
r = p2 * phi2 * q2 / (p1 * phi1 * q1)
return min(1, r)
def mh_sampling(x, y, beta=(0., 0.), mu=(0., 0.), cbeta=1., sigma=None, times=1000):
if sigma is None:
sigma = np.array((35 ** 2, 0.20 ** 2)) #注意到我这里取的 35, 0.20, 而3.5和35是类似的, 但是取1以下就很难弄了
inv_sigma = np.diag(1 / sigma)
sigma = np.diag(sigma)
else:
inv_sigma = np.linalg.inv(sigma)
process0 = [beta[0]]
process1 = [beta[1]]
count = 0
for t in range(times):
covold = fisher_matrix(x, beta, inv_sigma, cbeta=cbeta) #计算Fisher信息阵
newbeta = stats.multivariate_normal.rvs(mean=beta, cov=covold) #采样
covnew = fisher_matrix(x, newbeta, inv_sigma, cbeta=cbeta) #计算新的Fisher信息阵
alpha = acc_prop(x, y, beta, newbeta, mu, sigma, covold, covnew)#计算接受概率
if np.random.rand() < alpha:
beta = newbeta
process0.append(beta[0])
process1.append(beta[1])
count += 1
return process0, process1, count / times
process0, process1, acc_rate = mh_sampling(df['x'], df['y'], cbeta= 0.5, times=4000)
acc_rate
0.74
n = len(process0)
starts = 0 #从0个往后再开始取平均
cum_mean0 = np.cumsum(process0[starts:]) / np.arange(1, n + 1 - starts) #计算遍历均值
cum_mean1 = np.cumsum(process1[starts:]) / np.arange(1, n + 1 - starts)
fig, ax = plt.subplots(2, 2)
for i in range(2):
for j in range(2):
ax[i, j].set_xlabel(r't')
ax[i, j].set_ylabel(r'$\beta^{(t)}_' + str(j) + '$')
ax[0, 0].plot(np.arange(0, n - starts), process0[starts:])
ax[0, 1].plot(np.arange(0, n - starts), process1[starts:])
ax[1, 0].plot(np.arange(0, n - starts), cum_mean0)
ax[1, 1].plot(np.arange(0, n - starts), cum_mean1)
plt.tight_layout()
在这里插入图片描述
n = len(process0)
starts = 1000 #从1000个往后再开始取平均
cum_mean0 = np.cumsum(process0[starts:]) / np.arange(1, n + 1 - starts) #计算遍历均值
cum_mean1 = np.cumsum(process1[starts:]) / np.arange(1, n + 1 - starts)
fig, ax = plt.subplots(2, 2)
for i in range(2):
for j in range(2):
ax[i, j].set_xlabel(r't')
ax[i, j].set_ylabel(r'$\beta^{(t)}_' + str(j) + '$')
ax[0, 0].plot(np.arange(0, n - starts), process0[starts:])
ax[0, 1].plot(np.arange(0, n - starts), process1[starts:])
ax[1, 0].plot(np.arange(0, n - starts), cum_mean0)
ax[1, 1].plot(np.arange(0, n - starts), cum_mean1)
plt.tight_layout()
在这里插入图片描述
书上没有具体给的预设值, 实验发现大的值会导致低的接受率, 另一方面, 如果的选取如果与先前的一致, 结果并不理想, MH对参数如此敏感? 那岂非得有足够的先验才能合理地调整数据? 再经过一些实验发现, 取大一点就可以, 达到一定程度就稳定了, 这样看来就很不错了.
逐分量MH抽样
在MH算法中, 按二个分量和进行逐个更新, 这仅设计一维分布的抽样, 且不需要考虑参数的调节. 和各自的建议分布用随机游动抽样中的分布,即
算法如下:
- 给定的初值;
- 对于, 进行下面的迭代, 直到收敛为止. 令
- 从正态建议分布产生候选点,
- 令, 计算接受概率
并判断是否接受. - 从正态建议分布中产生候选点,
- 令, 计算接受概率
并判断是否接受
def alpha_each_mh1(x, y, oldbeta0, newbeta0, beta1, tau=1.75):
p1 = p(x, y, (newbeta0, beta1))
p2 = p(x, y, (oldbeta0, beta1))
phi1 = stats.norm.pdf(newbeta0, loc=oldbeta0, scale=tau)
phi2 = stats.norm.pdf(oldbeta0, loc=newbeta0, scale=tau)
r = p1 * phi1 / (p2 * phi2)
return min(1, r)
def alpha_each_mh2(x, y, beta0, oldbeta1, newbeta1, tau=0.20):
p1 = p(x, y, (beta0, newbeta1))
p2 = p(x, y, (beta0, oldbeta1))
phi1 = stats.norm.pdf(newbeta1, loc=oldbeta1, scale=tau)
phi2 = stats.norm.pdf(oldbeta1, loc=newbeta1, scale=tau)
r = p1 * phi1 / (p2 * phi2)
return min(1, r)
def mh_each(x, y, beta=[0., 0.], tau=(1.75, 0.20), times=3000):
process0 = [beta[0]]
process1 = [beta[1]]
for t in range(times):
newbeta0 = stats.norm.rvs(beta[0], tau[0])
alpha = alpha_each_mh1(x, y, beta[0], newbeta0, beta[1], tau[0])
if np.random.rand() < alpha:
beta[0] = newbeta0
process0.append(beta[0])
newbeta1 = stats.norm.rvs(beta[1], tau[0])
alpha = alpha_each_mh2(x, y, beta[0], beta[1], newbeta1, tau[1])
if np.random.rand() < alpha:
beta[1] = newbeta1
process1.append(beta[1])
return process0, process1
process0, process1 = mh_each(df['x'], df['y'])
n1 = len(process0)
n2 = len(process1)
starts = 0 #从0个往后再开始取平均
cum_mean0 = np.cumsum(process0[starts:]) / np.arange(1, n1 + 1 - starts) #计算遍历均值
cum_mean1 = np.cumsum(process1[starts:]) / np.arange(1, n2 + 1 - starts)
fig, ax = plt.subplots(2, 2)
for i in range(2):
for j in range(2):
ax[i, j].set_xlabel(r't')
ax[i, j].set_ylabel(r'$\beta^{(t)}_' + str(j) + '$')
ax[0, 0].plot(np.arange(0, n1 - starts), process0[starts:])
ax[0, 1].plot(np.arange(0, n2 - starts), process1[starts:])
ax[1, 0].plot(np.arange(0, n1 - starts), cum_mean0)
ax[1, 1].plot(np.arange(0, n2 - starts), cum_mean1)
plt.tight_layout()
在这里插入图片描述
最后记一笔
这里提到, 为了保证马氏链的平稳分布存在, 需要满足:
等价于:
当建议分布为, 而接受概率为的时候, 我们有
所以需要满足:
而当接受概率定义为
的时候, (A.3)就成立了, 因为一个为1另一个为后面的部分.
我在看书的时候有这样一个问题:
那么接受概率不就恒为1了? 实际上, 这里我犯了一个误区,注意到, (A.4), (A.5)单独拿出来都是对的, 但是不能合起来看, 因为合起来看的话就默认了一个条件:
显然这是不合理的.
网友评论