Questions tagged «bayesian»

贝叶斯推断是一种统计推断的方法,该方法依赖于将模型参数视为随机变量,并应用贝叶斯定理来推导有关参数或假设的主观概率陈述(取决于观察到的数据集)。

2
贝叶斯可信区间过程的决策理论依据是什么?
(要了解我为什么写这篇文章,请查看我对这个问题的回答下方的评论。) III型错误和统计决策理论 为错误的问题提供正确的答案有时被称为III型错误。统计决策理论是不确定性下决策的形式化。它提供了一种概念框架,可以帮助避免III型错误。该框架的关键要素称为损失函数。它包含两个参数:第一个是世界的真实状态(的相关子集)(例如,在参数估计问题中,真实参数值);第二个是一组可能动作中的一个元素(例如,在参数估计问题中,估计θ)θθ\thetaθ^)θ^)\hat{\theta})。输出对与世界上每种可能的真实状态有关的每种可能的动作所造成的损失进行建模。例如,在参数估计问题中,一些众所周知的损失函数是: 绝对误差损失L(θ,θ^)=|θ−θ^|L(θ,θ^)=|θ−θ^|L(\theta, \hat{\theta}) = |\theta - \hat{\theta}| 平方误差损失L(θ,θ^)=(θ−θ^)2L(θ,θ^)=(θ−θ^)2L(\theta, \hat{\theta}) = (\theta - \hat{\theta})^2 哈尔瓦里安的LINEX损失L(θ,θ^;k)=exp(k(θ−θ^))−k(θ−θ^)−1, k≠0L(θ,θ^;k)=exp⁡(k(θ−θ^))−k(θ−θ^)−1, k≠0L(\theta, \hat{\theta}; k) = \exp(k(\theta - \hat{\theta})) - k(\theta - \hat{\theta}) - 1,\text{ } k \ne0 检查答案以找到问题 在某些情况下,可能会试图通过着重于制定正确的损失函数并继续进行其余的决策理论方法(此处未详述)来避免III型错误。这不是我的简要介绍–毕竟,统计学家已经掌握了许多行之有效的技术和方法,即使它们并非源自这种方法。但是,在我看来,最终结果是绝大多数统计学家都不了解也不在乎统计决策理论,而且我认为他们不在了。对于那些统计学家,我认为他们之所以会发现统计决策理论在避免III类错误方面很有价值,是因为它提供了一个框架,可以在其中询问任何建议的数据分析程序:该程序可以最佳地应对什么损失函数(如果有)?也就是说,在什么决策情况下,它到底能提供最佳答案? 后预期损失 从贝叶斯角度来看,损失函数就是我们所需要的。我们几乎可以忽略决策理论的休息-几乎可以肯定,做的最好的事情是尽量减少后预期损失,也就是找到动作aaa最小化L~(a)=∫ΘL(θ,a)p(θ|D)dθL~(a)=∫ΘL(θ,a)p(θ|D)dθ\tilde{L}(a) = \int_{\Theta}L(\theta, a)p(\theta|D)d\theta。 ?(至于非贝叶斯观点嗯,这是频率论决策理论的定理-具体来说,沃尔德的完全类定理 -即最佳动作永远是尽量减少贝叶斯后验预期损失相对于一些(可能是不当)这个结果的困难在于它是一个存在定理,没有给出关于使用哪个先验的指导,但是它有效地限制了我们可以“反转”以弄清楚到底是哪个问题的过程的类别。特别是,反转任何非贝叶斯程序的第一步是弄清楚它复制或近似哪个贝叶斯程序(如果有)。 嘿,青色,您知道这是一个问答网站,对吗? 最后,这使我提出了一个统计问题。在贝叶斯统计中,当为单变量参数提供间隔估计时,两个常见的可信间隔过程是基于分位数的可信间隔和最高后验密度可信间隔。这些程序背后的损失函数是什么?

1
关于《纽约时报》滥用统计方法的文章
我指的是这篇文章:http : //www.nytimes.com/2011/01/11/science/11esp.html 考虑以下实验。假设有理由相信硬币的重量略偏于头部。在测试中,硬币在1,000的硬币中冒出527次。 这是否是代币已加权的重要证据? 古典分析说是的。有了一个公平的硬币,在1,000次翻转中获得527个或更多的磁头的机会就小于传统分界点的20分之一或5%。换句话说,实验发现加权硬币的证据“具有95%的置信度”。 然而,许多统计学家并不买账。20个中的一个是一千次掷出526以上的任何头的概率。即,它是翻转概率527,翻转概率528、529等等的总和。 但是实验并未找到该范围内的所有数字。他们发现只有一个-527。因此,这些专家说,如果硬币被加权,则计算得到那个数字-527的概率会更准确,然后将硬币与获得相同数字的概率进行比较。公平。 统计学家保罗·斯派克曼(Paul Speckman)和心理学家杰夫·劳德(Jeff Rouder)一起提供了例子,统计学家可以证明这个比率不能高于4:1。 第一个问题:这对我来说是新的。有没有人提供我可以找到精确计算的参考,和/或您可以通过自己给我精确计算来帮助我,和/或您可以指出一些可以在其中找到相似示例的材料吗? 贝叶斯设计了一种方法,可以在出现新证据时更新假设的可能性。 因此,在评估给定发现的强度时,贝叶斯分析(发音为BAYZ-ee-un)会纳入研究以外的已知概率(如果有)。 它可能被称为“是的,正确的”效果。如果一项研究发现金橘可将心脏病风险降低90%,一种疗法可在一周内治愈酒精成瘾,敏感的父母生女孩的可能性是男孩的两倍,那么贝叶斯的反应与本地怀疑论者:是的,对。研究结果与世界上可观察到的结果进行权衡。 在至少一个医学领域–诊断筛选测试–研究人员已经使用已知的概率来评估新发现。例如,一项新的测谎测试可能具有90%的准确率,可以正确标记10个骗子中的9个。但是,如果将其提供给100个已知已经包括10个骗子的人群,那么这项测试的效果就不那么令人印象深刻了。 它可以正确识别10个撒谎者中的9个,并且错失1个;但错误地将其他90个中的9个标识为说谎。将所谓的“真实肯定”(9)除以测试标记的总人数(18),得出的准确率为50%。“假阳性”和“假阴性”取决于人口中已知的比率。 第二个问题:您如何用这种方法正确判断一个新发现是否“真实”?并且:由于使用了一些预先设定的先验概率,这是否不像5%屏障那样任意?

4
边缘情况下精度和召回率的正确值是多少?
精度定义为: p = true positives / (true positives + false positives) 对不对,作为true positives和false positives做法0,精度接近1? 召回相同的问题: r = true positives / (true positives + false negatives) 我目前正在实施统计测试,需要计算这些值,有时分母为0,我想知道在这种情况下应返回哪个值。 PS:请原谅,不恰当的标签,我想用recall,precision和limit,但我不能创造新的标签呢。
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

2
贝叶斯关于过度拟合的思考
我花了很多时间来开发用于验证传统的频繁统计领域中的预测模型的方法和软件。将更多的贝叶斯思想付诸实践和教学时,我发现需要拥抱一些关键差异。首先,贝叶斯预测模型要求分析人员认真考虑可能针对候选特征进行定制的先验分布,这些先验将拉近模型(即,针对不同的预测特征对缩略/惩罚/正则化进行不同程度的惩罚) )。其次,“真实”贝叶斯方法不会产生单个模型,而是会获得整个后验分布以进行预测。 考虑到这些贝叶斯特征,过度拟合意味着什么?我们应该评估一下吗?如果是这样,怎么办?我们如何知道贝叶斯模型何时可用于现场?还是当我们使用我们为预测而开发的模型时,后验将带有所有谨慎的不确定性,这是一个有争议的问题吗? 如果我们强制将贝叶斯模型提炼为单个数字,例如后均值/众数/中位数风险,那么思维将如何改变? 我在这里看到一些相关的想法。在这里可以找到平行讨论。 后续问题::如果我们完全是贝叶斯模型,并且在查看数据之前花了一些时间在先验上,并且我们在适当地指定了数据似然性的情况下拟合了模型,那么我们是否必须对模型过度拟合感到满意?还是我们需要做一些我们在常人世界中所做的事情,在该世界中,随机选择的主题在平均水平上可能会被很好地预测,但是如果我们选择一个预测值非常低或预测值非常高的主题,则会出现回归是什么意思?

3
为什么在贝叶斯定理中需要归一化因子?
贝叶斯定理变为 P(模型| 数据)= P(型号)× P(数据| 型号)P(数据)P(模型|数据)=P(模型)×P(数据|模型)P(数据) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} 一切都很好。但是,我在某处读过: 基本上,P(data)只是归一化常数,即使后验密度积分为一个常数的常数。 我们知道和。 0 ≤ P (数据| 模型)≤ 10 ≤ P(模型)≤ 10≤P(模型)≤1个0 \leq P(\textrm{model}) \leq 10 ≤ P(数据| 模型)≤ 10≤P(数据|模型)≤1个 0 \leq P(\textrm{data}|\textrm{model}) \leq 1 因此,必须介于0和1之间。在这种情况下,为什么我们需要归一化常数以使后验积分到一个?P(型号)× P(数据| 型号)P(模型)×P(数据|模型)P(\textrm{model}) \times P(\textrm{data}|\textrm{model})

3
Gentler贝叶斯统计方法
我最近开始阅读Bolstad撰写的“贝叶斯统计概论”第二版。我有一个介绍性的Stats类,主要涵盖统计测试,并且几乎遍历了回归分析中的一类。我还可以使用其他哪些书籍来补充我对这本书的理解? 我已经完成了前100-125页的罚款。之后,这本书开始谈论假设检验,这是我很激动地介绍的内容,但是有几件事情让我失望: 在计算中使用概率密度函数。换句话说,如何评估这样的方程式。 这整个句子是:“假设我们在pi之前使用beta(1,1)。然后给定y = 8,后验密度为beta(9,3)。零假设的后验概率是...”我相信 beta(1,1)指的是平均值为1而标准偏差为1的PDF?我不知道如何将其转换为beta(9,3)作为后验密度函数。 我确实了解先验与后继的概念,并了解如何使用表格手动应用它们。我得到(我认为!)pi代表假定的人口比例或概率。 我不知道如何将其与我每天会遇到的数据联系在一起并获得结果。



1
方差的反义词
有没有一个词是“方差的倒数”?也就是说,如果方差高,则低。对近义词(例如“协议”或“相似性”)不感兴趣,但具体含义是?X ... 1 / σ 2XXXXXX……\dots1 / σ21个/σ21/\sigma^2

2
如何将贝叶斯定理应用于寻找海上迷路的渔夫
文章“不断更新的可能性”提到了一个长岛渔民的故事,他的生活完全归功于贝叶斯统计局。这是简短的版本: 午夜时分,船上有两名渔民。当一个人睡着时,另一个掉入大海。整个晚上,船将继续自动驾驶,直到第一个家伙最终醒来并通知海岸警卫队。海岸警卫队使用一款名为SAROPS(搜索和救援最佳计划系统)的软件来及时找到他,因为他的体温过低并且几乎没有精力维持生存。 这是长版:海中的斑点 我想了解更多有关贝叶斯定理在此处实际应用的信息。我通过谷歌搜索发现了很多有关SAROPS软件的信息。 SAROPS模拟器 模拟器组件考虑了及时的数据,例如洋流,风等,并模拟了数千种可能的漂移路径。根据这些漂移路径,创建概率分布图。 请注意,以下图形并不涉及我上面提到的失踪渔夫的情况,而是本演示文稿中的一个玩具示例。 概率图1(红色表示最高概率;蓝色表示最低概率) 请注意是起始位置的圆圈。 概率图2-过去了更多的时间 请注意,概率图已变为多峰。这是因为在此示例中,考虑了多个方案: 人在水上漂浮-中上模式 该人处于救生筏中(受北方风的影响更大)-底部2种模式(由于“吉宾效应”而分裂) 概率图3-搜索沿红色的矩形路径进行。 此图显示了计划者(SAROPS的另一个组件)产生的最佳路径。如您所见,模拟器已搜索了这些路径,并且概率图已更新。 您可能想知道为什么搜索的区域没有减少到零概率。这是因为考虑到的可能性,搜索者有可能忽略水中的那个人,这是一个不可忽略的机会。可以理解的是,一个独居的人的失败概率要比救生筏上的一个人(容易看到)要高得多,这就是为什么顶部区域的概率没有下降太多的原因。p(fail)p(fail)p(\text{fail}) 搜索失败的影响 这就是贝叶斯定理发挥作用的地方。进行搜索后,概率图将相应更新,因此可以最佳地计划另一个搜索。 在审查了维基百科上的贝叶斯定理并在BetterExplained.com上的文章贝叶斯定理的直观(简短)解释之后 我采用了贝叶斯方程: P(A∣X)=P(X∣A)×P(A)P(X)P(A∣X)=P(X∣A)×P(A)P(X) P(\text{A}\mid\text{X}) = \frac{P(\text{X}\mid\text{A}) \times P(\text{A})}{P(\text{X})} 并将A和X定义如下... 事件A:此人位于该区域(网格单元) 测试X:在该区域(网格单元)上搜索失败,即搜索了该区域并且没有看到任何内容 屈服 P(person there∣unsuccessful)=P(unsuccessful∣person there)×P(person there)P(unsuccessful)P(person there∣unsuccessful)=P(unsuccessful∣person there)×P(person there)P(unsuccessful) P(\text{person there}\mid\text{unsuccessful}) = \frac{P(\text{unsuccessful}\mid\text{person there}) \times P(\text{person there})}{P(\text{unsuccessful})} 我在搜索和救援最佳规划系统中发现,SAROPS 通过考虑搜索路径和模拟漂移路径来计算搜索失败的概率。因此,为简单起见,假设我们知道是什么。P(fail)P(fail)P(\text{fail})P(fail)P(fail)P(\text{fail}) 现在我们有了 P(person there∣unsuccessful)=P(fail)×P(person …

4
贝叶斯统计中是否需要进行功率分析?
我最近一直在研究经典统计的贝叶斯方法。在阅读了有关贝叶斯因子的信息后,我一直想知道从这种统计角度来看是否需要进行功效分析。我想知道这是贝叶斯因子的主要原因,实际上似乎只是似然比。一旦达到25:1,就好像我可以称之为一个夜晚。 我远吗?我还能做其他阅读以了解更多信息吗?当前正在阅读这本书:WM Bolstad 撰写的 “贝叶斯统计简介”(Wiley-Interscience;第二版,2007年)。

2
贝叶斯模型中交叉验证的稳定性
我正在使用k倍交叉验证(k = 5)在JAGS中拟合贝叶斯HLM。我想知道参数估计值在所有折叠中是否稳定。最好的方法是什么?ββ\beta 一种想法是找到后代的差异,并查看差异的95%CI是否为0。换句话说,在的95%间隔中为0 (然后对所有对折重复)。ββ\betaβk=1−βk=2βk=1−βk=2\beta_{k=1}-\beta_{k=2} 另一个想法是将来自每个褶皱的后代视为不同的MCMC链,并计算这些伪链上的Gelman的(势能缩减因子)。R^R^\hat{R} 其中之一是可取的,还有替代品吗?

1
离散参数使用什么MCMC算法/技术?
我知道很多有关拟合连续参数(尤其是基于梯度的方法)的知识,但对拟合离散参数的了解却很少。 拟合离散参数的常用MCMC算法/技术有哪些?是否有既通用又强大的算法?是否存在可以很好地处理维数诅咒的算法?例如,我会说汉密尔顿MCMC是通用的,功能强大的并且可扩展性很好。 从任意离散分布进行采样似乎比从连续分布进行采样更加困难,但是我很好奇目前的技术水平。 编辑:JMS要求我详细说明。 我没有特定的应用程序,但是我在想像一些模型: 几种连续回归模型之间的模型选择。您有一个离散的单个“模型”参数 连续模型,其中每个观测值都有可能成为“异常值”并从更加分散的分布中得出。我想这是一个混合模型。 我希望许多模型都包含连续参数和离散参数。
19 bayesian  mcmc 

3
贝叶斯统计方法真的比行为统计的传统(频率)统计方法有所改进吗?
在参加会议时,贝叶斯统计的倡导者为评估实验结果做出了一些努力。它被吹捧为比真实的统计数据对真实的发现(更少的误报)更加敏感,适当和选择性更大。 我已经对该主题进行了一些探索,到目前为止,我对使用贝叶斯统计数据的好处深信不疑。但是,贝叶斯分析被用来驳斥达里尔·贝姆支持预知的研究,因此,我仍然对贝叶斯分析如何使我自己的研究受益会保持好奇。 因此,我对以下几点感到好奇: 贝叶斯分析与常客分析的力量 每种分析类型对1型错误的敏感性 分析复杂性(贝叶斯似乎更复杂)与收益之间的权衡。传统的统计分析非常简单,并具有完善的得出结论的指导原则。简单性可以看作是一种好处。那值得放弃吗? 感谢您的见解!

5
在实践中,“仅根据比例的乘法常数来定义可能性”是什么意思?
我正在阅读一篇论文,作者从最大似然估计的讨论到贝叶斯定理,似乎是对初学者的介绍。 作为一个可能性示例,它们从二项分布开始: p(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,\theta) = \binom{n}{x}\theta^x(1-\theta)^{n-x} 然后登录双方 ℓ(θ|x,n)=xln(θ)+(n−x)ln(1−θ)ℓ(θ|x,n)=xln⁡(θ)+(n−x)ln⁡(1−θ)\ell(\theta|x, n) = x \ln (\theta) + (n-x)\ln (1-\theta) 具有以下基本原理: “因为可能性仅被定义为比例的乘性常数(或对数似然的加性常数),所以我们可以通过降低二项式系数并写出对数似然来代替似然来重新定标。” 数学上是有道理的,但我不明白“似然仅定义为比例乘性常数”的含义,以及这如何使二项式系数下降并从变为\ ell(\ theta | x,n)。p(x|n,θ)p(x|n,θ)p(x|n,\theta)ℓ(θ|x,n)ℓ(θ|x,n)\ell(\theta|x,n) 在其他问题(此处和此处)中也出现了类似的术语,但实际上仍不清楚可能的定义是什么,或者使信息达到可乘的常数。有可能用外行的术语解释吗?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.