自举与贝叶斯自举在概念上?


21

我在理解贝叶斯自举过程是什么以及与常规自举有何不同时遇到了麻烦。而且,如果有人可以提供直观/概念性的评论并进行比较,那将很棒。

让我们举个例子。

假设我们有一个[1,2,5,7,3]的数据集X。

如果我们多次采样替换来创建等于X大小的样本(所以[7,7,2,5,7],[3,5,2,2,7]等),那么我们计算每个的均值,是样本均值的自举分布吗?

贝叶斯引导分布是什么?

以及如何以相同方式完成其他参数(方差等)的贝叶斯自举分布?


4
参见sumsar.net/blog/2015/04/…projecteuclid.org/euclid.aos/1176345338,也许@rasmus-bååth可以回答您;)
蒂姆

Answers:


27

(频繁)引导程序将数据作为未知人口分布的合理近似值。因此,可以通过用替换对观察值进行重复重新采样并为每个样本计算统计量来近似统计量的抽样分布(数据的函数)。

表示原始数据。(在给定的示例中,n = 5。)让y b = y b 1y b n表示自举样本。这样的样本可能会有一些观察重复一次或多次,而其他观察将不存在。引导程序样本的平均值为y=(y1,,yn)n=5ÿb=ÿ1个bÿñbmb在多个自举复制中的分布,用于近似估算未知种群的采样分布。

mb=1ni=1nyib.
mb

为了了解频繁引导程序和贝叶斯引导程序之间的联系,从不同的角度来看如何计算很有帮助。mb

在每个自举样本,每个观察值y i发生0到n次。设h b i表示y iy b中出现的次数,并设h b = h b 1h b n。因此ħ b { 0 1 ... Ñ - 1 Ñ }ybyinhibyiybhb=(h1b,,hnb)hib{0,1,,n1,n}。给定 h b,我们可以构造一个总值为1的非负权重集合: w b = h b / n,其中 w b i = h b i / n。使用这种符号,我们可以重新表达自举样本的平均值,因为 m b = n i = 1 w b ii=1nhib=nhbwb=hb/nwib=hib/n

mb=i=1nwibyi.

自举样本选择观察的方式确定的联合分布。特别是hwb具有多项式分布,因此nhb因此,我们可以通过从 w b的分布中绘制 w b并用 y计算点积来计算 m b。从这个新的角度来看,似乎在权重变化时观测值是固定的。

(nwb)Multinomial(n,(1/n)i=1n).
mbwby

在贝叶斯推断中,观察值的确是固定的,因此这种新观点似乎与贝叶斯方法相称。实际上,根据贝叶斯引导程序的均值计算仅在权重分布上有所不同。(尽管如此,从概念上讲,贝叶斯引导程序与惯常方法完全不同。)数据是固定的,权重w是未知参数。我们可能对取决于未知参数的某些数据功能感兴趣: μ = n i = 1 w iyw

μ=i=1nwiyi.

这是贝叶斯引导程序背后模型的缩略图:观测值的采样分布是多项式的,权重的先验是有限的Dirichlet分布,该分布将其所有权重置于单纯形的顶点上。(有些作者将此模型称为多项式似然模型。)

wDirichlet(1,,1).

给定权重的后验分布,我们可以来近似函数的后验分布μwy

i=1nwig(yi,θ)=0_,
where g(yi,θ) is a vector of estimating functions that depends on the unknown parameter (vector) θ and 0_ is a vector of zeros. If this system of equations has a unique solution for θ given y and w, then we can compute its posterior distribution by drawing w from its posterior distribution and evaluating that solution. (The framework of estimating equations is used with empirical likelihood and with generalized method of moments (GMM).)

The simplest case is the one we have already dealt with:

i=1nwi(yiμ)=0.
For the mean and the variance, θ=(μ,v) we have
g(yi,θ)=(yiμ(yiμ)2v).
The setup is a bit more involved than that for the frequentist bootstrap, which is why a Bayesian might adopt the frequentist bootstrap as a quick approximation.

1
Thanks for the very detailed description. Personally I would appreciate a brief statement on when to choose each one.
ErichBSchulz
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.