Questions tagged «gibbs»

Gibbs采样器是马尔可夫链蒙特卡罗模拟的一种简单形式,广泛用于贝叶斯统计中,它基于对每个变量或变量组的完整条件分布进行采样。该名称来自Geman和Geman(1984)首次在Gibbs图像的随机域建模中使用的方法。

1
伊辛模型的吉布斯抽样
作业问题: 考虑一维伊辛模型。 令。x_i为-1或+1x=(x1,...xd)x=(x1,...xd)x = (x_1,...x_d)xixix_i π(x)∝e∑39i=1xixi+1π(x)∝e∑i=139xixi+1\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}} 设计一个gibbs采样算法,以大致根据目标分布\ pi(x)生成样本π(x)π(x)\pi(x)。 我的尝试: 随机选择值(-1或1)以填充向量x=(x1,...x40)x=(x1,...x40)x = (x_1,...x_{40})。所以x=(−1,−1,1,1,1,−1,1,1,...,1)x=(−1,−1,1,1,1,−1,1,1,...,1)x = (-1, -1, 1, 1, 1, -1, 1, 1,...,1)。所以这是x0x0x^0。 因此,现在我们需要继续进行第一次迭代。我们必须分别为x ^ 1绘制40个不同的x x1x1x^1。所以... 从\ pi(x_1 | x_2 ^ 0,...,x_ {40} ^ 0)中绘制x11x11x_1^1π(x1|x02,...,x040)π(x1|x20,...,x400)\pi(x_1 | x_2^0,...,x_{40}^0) 从\ pi(x_2 | x_1 ^ 1,x_3 ^ 0,...,x_ {40} ^ 0)中绘制x12x21x_2^1π(x2|x11,x03,...,x040)π(x2|x11,x30,...,x400)\pi(x_2 | …


2
与吉布斯抽样有关的混乱
我看到这篇文章时说,在吉布斯采样中,每个样本都被接受。我有点困惑。如果每个接受的样本都收敛到平稳分布,结果如何。 在一般的Metropolis算法中,我们接受为min(1,p(x *)/ p(x)),其中x *是采样点。我假设x *将我们指向密度很高的位置,因此我们正在向目标分布移动。因此,我认为经过一段时间的老化后,它会移动到目标分布。 但是,在吉布斯采样中,我们接受了所有内容,因此即使它可能将我们带到另一个地方,也不能说它收敛于平稳/目标分布 假设我们有一个分布 p (θ )= c (θ )/ Zp(θ)=C(θ)/žp(\theta) = c(\theta)/Z。我们无法计算Z。在大都会算法中,我们使用以下术语c (θñ Ë W ^)/ c (θÒ 升d)C(θñËw)/C(θØ升d)c(\theta^{new})/c(\theta^{old}) 合并发行版 c (θ )C(θ)c(\theta)加上归一化常数Z抵消了。这样很好 但是在吉布斯抽样中,我们在哪里使用分布 c (θ )C(θ)c(\theta) 例如在论文中http://books.nips.cc/papers/files/nips25/NIPS2012_0921.pdf其给定 所以我们没有确切的条件分布可用来进行抽样,我们只有与条件分布成正比的东西

2
计算数据的ROC曲线
因此,我进行了16次试验,试图使用汉明距离从生物特征中鉴定一个人。我的阈值设置为3.5。我的数据如下,只有试验1为“真阳性”: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 10 0.45 11 0.42 12 0.37 13 0.66 14 0.39 15 0.44 16 0.39 我的困惑是,我真的不确定如何根据此数据制作ROC曲线(FPR与TPR或FAR与FRR)。哪一个都不重要,但是我只是对如何进行计算感到困惑。任何帮助,将不胜感激。
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

1
我可以在每次MCMC迭代中对大型数据集进行二次采样吗?
问题:我想执行Gibbs采样以推断大型数据集的一些后验。不幸的是,我的模型不是很简单,因此采样速度太慢。我会考虑采用变型或并行方法,但在此之前…… 问题:我想知道是否可以在每次Gibbs迭代中从数据集中随机采样(替换),以便在每个步骤中学习的实例更少。 我的直觉是,即使我更改样本,我也不会更改概率密度,因此Gibbs样本不应注意到这一窍门。我对吗?是否有人提到过这样做?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.