Questions tagged «bayesian»

贝叶斯推断是一种统计推断的方法,该方法依赖于将模型参数视为随机变量,并应用贝叶斯定理来推导有关参数或假设的主观概率陈述(取决于观察到的数据集)。


1
哈密​​顿量蒙特卡洛和离散参数空间
我刚刚开始在stan中建立模型;为了熟悉该工具,我正在完成贝叶斯数据分析(第二版)中的一些练习。所述沃特伯克锻炼设该数据,与(Ñ ,θ )是未知的。由于汉密尔顿蒙特卡洛法令不允许离散参数,因此我已将N声明为实数∈ [ 72 ,∞ ),并使用该函数对实值二项式分布进行了编码。Ñ 〜二项式(Ñ,θ )n∼binomial(N,θ)n \sim \text{binomial}(N, \theta)(N,θ )(N,θ)(N, \theta)ñNN∈ [ 72 ,∞ )∈[72,∞)\in [72, \infty)lbeta 结果的直方图看起来与我直接计算后验密度所发现的结果几乎相同。但是,我担心可能有些微妙的原因使我总体上不相信这些结果。由于对的实值推论为非整数值分配了正概率,因此我们知道这些值是不可能的,因为分数Waterbuck实际上并不存在。另一方面,结果似乎很好,因此在这种情况下,简化似乎对推理没有影响。ñNN 是否有任何以这种方式进行建模的指导原则或经验法则,或者这种将离散参数“提升”为实际不良做法的方法?


1
帮助我了解贝叶斯glm中的
我正在尝试对此处的数据运行贝叶斯logit 。我在R bayesglm()中的arm包中使用。编码非常简单: df = read.csv("http://dl.dropbox.com/u/1791181/bayesglm.csv", header=T) library(arm) model = bayesglm(PASS ~ SEX + HIGH, family=binomial(link="logit"), data=df) summary(model) 给出以下输出: Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) 0.10381 0.10240 1.014 0.311 SEXMale 0.02408 0.09363 0.257 0.797 HIGH -0.27503 0.03562 -7.721 1.15e-14 *** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 …
13 r  bayesian  p-value 

2
为什么混乱的问题对于大样本量来说很棘手?
假设我们有一组点。每个点y i是使用分布 p (y i | x )= 1生成的y ={ y1个,ÿ2,… ,yñ}y={y1,y2,…,yN}\mathbf{y} = \{y_1, y_2, \ldots, y_N \}ÿ一世yiy_i 为了获得后为X我们写 p(X|Ý)αp(Ý|X)p(X)=p(X) ñ Π我=1个p(ÿ我|X)。 根据Minka的关于期望传播的论文,我们需要2N计算以获得后验p (ÿ一世| x)= 12ñ(x ,1 )+ 12ñ(0 ,10 )。p(yi|x)=12N(x,1)+12N(0,10). p(y_i| x) = \frac12 \mathcal{N}(x, 1) + \frac12 \mathcal{N}(0, 10). Xxxp (x | y)∝ p (y | x )p …


5
BUGS的R替代品[关闭]
关闭。这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新问题,使它成为交叉验证的主题。 去年关闭。 我正在学习使用BUGS和R进行的贝叶斯统计课程。 我已经读到R中有许多新的贝叶斯软件包。是否有列表或参考说明了哪些贝叶斯统计软件包以及这些软件包的作用?并且,是否有R包替代品可以提高BUGS的灵活性?
13 r  bayesian  bugs 

1
似然比和贝叶斯模型比较是否可以为零假设检验提供更好且足够的替代方案?
为了回应越来越多的统计学家和研究人员批评将零假设检验(NHT)用于科学作为一种累积努力的做法,美国心理学会统计推断工作组避免了彻底禁止NHT的禁令,而是建议研究人员除了从NHT导出的p值外,还报告效果大小。 但是,效果大小在整个研究中不容易累积。元分析方法可以累积效应量的分布,但是效应量通常以原始效应量与给定实验数据中无法解释的“噪声”之比来计算,这意味着效应量的分布不仅受各个研究之间的原始效果差异很大,而且各个研究之间的噪音表现也存在差异。 相比之下,效应强度的替代度量,似然比既可以在逐项研究的基础上进行直观的解释,又可以轻松地在各个研究中汇总以进行荟萃分析。在每项研究中,似然度代表包含给定效果的模型相对于不包含效果的模型的证据权重,通常可以报告为例如“计算X效果的似然比”揭示了该效应的证据是其无效证据的8倍。” 此外,似然比还允许直观表示无效结果的强度,因为低于1的似然比表示赞成采用无效的情况,取该值的倒数表示无效对效果的证据权重。值得注意的是 似然比在数学上表示为两个模型的无法解释的方差之比,其差异仅在于效应所解释的方差,因此在概念上与效应大小没有太大的偏差。另一方面,荟萃分析似然比的计算代表了整个研究中某项效应的证据权重,这仅仅是取各个研究中似然比的乘积即可。 因此,我认为,对于寻求建立有利于效应/模型的总体证据程度的科学而言,似然比是可行的方法。 在更细微的情况下,模型仅在效果的特定大小上才是可区分的,在这种情况下,我们认为区间的某种表示形式(我们认为数据与效果参数值一致)可能是首选的。确实,APA工作组还建议报告置信区间,可以将其用于此目的,但是我怀疑这也是一种考虑不周的方法。 令人遗憾的是,置信区间经常被误解(被学生和研究人员都误解了)。我还担心它们在NHT中的使用能力(通过评估CI中是否包含零)将只会进一步推论NHT的灭绝。 相反,当理论只能通过效应的大小来区分时,我建议贝叶斯方法会更合适,因为每种效应的先验分布由每个模型分别定义,然后比较所得的后验分布。 这种方法用似然比替换p值,影响大小和置信区间,并且在必要时用贝叶斯模型比较是否似乎足够?是否错过了此处所针对的替代方案所提供的某些必要的推论功能?

1
是否可以半自动化MCMC收敛诊断程序来设置老化时间?
我想自动选择MCMC链的老化选项,例如通过基于收敛性诊断删除前n行。 此步骤可以安全地自动化到什么程度?即使我仍然仔细检查自相关,mcmc跟踪和pdf,也可以自动选择老化长度。 我的问题很笼统,但是如果您可以提供处理R mcmc.object的细节,那就太好了;我在R中使用rjags和coda软件包。
13 r  bayesian  mcmc 

3
了解MCMC:替代方案是什么?
第一次学习贝叶斯统计;作为理解MCMC的一个角度,我想知道:这是做根本上无法通过其他方式完成的事情,还是只是比其他方法更有效? 通过说明的方式,假设在给定数据P(x,y,z|D)P(x,y,z|D)P(x,y,z|D)的模型的情况下,我们正在尝试计算参数的概率,给定一个计算相反参数P(D|x,y,z)P(D|x,y,z)P(D|x,y,z)。为了直接用贝叶斯定理计算,我们需要这里指出的分母。但是我们可以通过积分来计算它,如下所示:P(D)P(D)P(D) p_d = 0. for x in range(xmin,xmax,dx): for y in range(ymin,ymax,dy): for z in range(zmin,zmax,dz): p_d_given_x_y_z = cdf(model(x,y,z),d) p_d += p_d_given_x_y_z * dx * dy * dz 那会行得通吗(尽管使用大量变量时效率很低),还是有其他原因会使这种方法失败?
13 bayesian  mcmc 

1
为什么朴素贝叶斯分类器最适合0-1损失?
朴素贝叶斯分类器是基于最大化类成员资格的后验P (C | x )将项分配给类C的分类器,并假定项的特征是独立的。xxxCCCP(C|x)P(C|x)P(C|x) 0-1损失是指将任何未分​​类归类为“ 1”的损失,并将任何正确分类为“ 0”的损失。 我经常读(1),“朴素贝叶斯”分类器对于0-1损失是最佳的。为什么会这样呢? (1)一个示例性来源:贝叶斯分类器和贝叶斯误差

1
如何找到95%的可信区间?
我正在尝试计算以下后验分布的95%可信区间。我找不到R中的函数,但是下面的方法正确吗? x <- seq(0.4,12,0.4) px <- c(0,0, 0, 0, 0, 0, 0.0002, 0.0037, 0.018, 0.06, 0.22 ,0.43, 0.64,0.7579, 0.7870, 0.72, 0.555, 0.37, 0.24, 0.11, 0.07, 0.02, 0.009, 0.005, 0.0001, 0,0.0002, 0, 0, 0) plot(x,px, type="l") mm <- sum(x*px)/sum(px) var <- (sum((x)^2*px)/sum(px)) - (mm^2) cat("95% credible interval: ", round(mm -1.96*sqrt(var),3), "-", …


1
吉布斯输出的边际可能性
我正在从头开始复制第4.2.1节的结果 吉布斯输出的边际可能性 悉达多(Siddhartha Chib) 美国统计协会杂志,第一卷。90,第432号。(1995年12月),第1313-1321页。 它是具有已知组件数的法线模型的混合。 k≥1k≥1k\geq 1f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σ2j).(∗)f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σj2).(∗) f(x\mid w,\mu,\sigma^2) =\prod_{i=1}^n\sum_{j=1}^k \mathrm{N}(x_i\mid\mu_j,\sigma_j^2) \, . \qquad (*) 该模型的Gibbs采样器是使用Tanner和Wong的数据增强技术实现的。引入了一组分配变量并假设值为,我们指定和f(x_i \ mid z ,\ mu,\ sigma ^ 2)= \ mathrm {N}(x_i \ mid \ mu_ {z_i},\ sigma ^ 2_ {z_i})。因此,在z_i上的积分给出了原始可能性(*)。z=(z1,…,zn)z=(z1,…,zn)z=(z_1,\dots,z_n)1,…,k1,…,k1,\dots,kPr(zi=j∣w)=wjPr(zi=j∣w)=wj\Pr(z_i=j\mid w)=w_jf(xi∣z,μ,σ2)=N(xi∣μzi,σ2zi)f(xi∣z,μ,σ2)=N(xi∣μzi,σzi2)f(x_i\mid z,\mu,\sigma^2)=\mathrm{N}(x_i\mid\mu_{z_i},\sigma^2_{z_i})ziziz_i(∗)(∗)(*) 该数据集是由来自日冕的828282星系的速度形成的。 set.seed(1701) x <- c( 9.172, 9.350, 9.483, 9.558, 9.775, 10.227, …

2
为什么在伯努利参数上使用beta分布进行分层逻辑回归?
我目前正在阅读Kruschke出色的“做贝叶斯数据分析”书。但是,有关分层逻辑回归的章节(第20章)有些令人困惑。 图20.2描述了分层逻辑回归,其中伯努利参数被定义为通过S型函数转换的系数的线性函数。我在其他在线资源中也看到了大多数示例,这似乎是构成分层逻辑回归的方式。例如-http: //polisci2.ucsd.edu/cfariss/code/SIMlogit02.bug 但是,当预测变量是名义变量时,他在层次结构中添加了一层-Bernoulli参数现在从beta分布中绘制(图20.5),其参数由mu和kappa确定,其中mu是系数线性函数的S形变换。 ,而kappa使用伽玛优先级。 这似乎是合理的,类似于第9章中的掷硬币示例,但是我不认为名义上的预测变量与添加beta分布有什么关系。在度量标准预测变量的情况下,为什么不这样做?为什么为名义预测变量增加了beta分布? 编辑:澄清我所指的模型。首先,具有指标预测变量的逻辑回归模型(之前没有beta)。这类似于分层逻辑回归的其他示例,例如上面的错误示例: ÿ一世〜伯努利(μ一世)μ一世= 信号(β0+ ∑ĴβĴXĴ 我)β0〜ñ(M0,Ť0)βĴ〜ñ(Mβ,Ťβ)yi∼Bernoulli⁡(μi)μi=sig⁡(β0+∑jβjxji)β0∼N(M0,T0)βj∼N(Mβ,Tβ) y_i \sim \operatorname{Bernoulli}(\mu_i) \\ \mu_i = \operatorname{sig}(\beta_0 + \sum_j \beta_j x_{ji} ) \\ \beta_0 \sim N(M_0, T_0) \\ \beta_j \sim N(M_\beta, T_\beta) \\ 然后是带有名义预测变量的示例。在这里,我不太了解层次结构的“较低”级别的作用(将逻辑结果纳入二项式分析的beta中),以及为什么它应与度量示例有所不同。 ž一世〜斌(θ一世,N)θ一世〜Beta版(一个Ĵ,bĴ)一个Ĵ= μĴκbĴ= (1 - μĴ)κκ 〜Γ (小号κ,Rκ)μĴ= 信号(β0+ ∑ĴβĴXĴ 我)β0〜ñ(M0,Ť0)βĴ〜ñ(0 ,τβ)τβ= 1 / σ2βσ2β〜折t(TŤ,d ˚F)zi∼Bin⁡(θi,N)θi∼Beta⁡(aj,bj)aj=μjκbj=(1−μj)κκ∼Γ(Sκ,Rκ)μj=sig⁡(β0+∑jβjxji)β0∼N(M0,T0)βj∼N(0,τβ)τβ=1/σβ2σβ2∼folded …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.