Questions tagged «bayesian»

贝叶斯推断是一种统计推断的方法,该方法依赖于将模型参数视为随机变量,并应用贝叶斯定理来推导有关参数或假设的主观概率陈述(取决于观察到的数据集)。

2
Jeffreys Priors和方差稳定转换之间的关系是什么?
我维基百科上之前阅读有关杰弗瑞斯:杰弗里斯之前和锯,其各实施例之后,它描述了一个方差稳定转化如何接通杰弗里斯现有成均匀之前。 例如,对于伯努利的情况,它表示对于以概率前进的硬币,伯努利试验模型得出,参数的杰弗里斯先验值为:γ∈[0,1]γ∈[0,1]\gamma \in [0,1]γγ\gamma p(γ)∝1γ(1−γ)−−−−−−−√p(γ)∝1γ(1−γ) p(\gamma) \propto \frac{1}{\sqrt{\gamma ( 1-\gamma)}} 然后声明这是一个带有的beta分布。它还指出,如果,则现有的杰弗里中的间隔是均匀的。α=β=12α=β=12\alpha = \beta = \frac{1}{2}γ=sin2(θ)γ=sin2⁡(θ)\gamma = \sin^2(\theta)θθ\theta[0,π2][0,π2]\left[0, \frac{\pi}{2}\right] 我认为该转换是稳定方差的转换。让我感到困惑的是: 为什么稳定方差的转换会导致统一的先验? 我们为什么还要统一制服?(因为它似乎更容易受到不当行为的影响) 总的来说,我不确定为什么要给出平方正弦变换以及起什么作用。有人有什么想法吗?

2
与Jeffreys不同,先验的示例导致后验不变
我将在两周前在这里提出的问题重新发布“答案”:为什么Jeffreys事前有用?不过,这确实是一个问题(我当时也无权发表评论),所以我希望可以这样做: 在上面的链接中,讨论了Jeffreys Prior的有趣特征是,在重新参数化模型时,所得后验分布给出了服从变换施加的约束的后验概率。比方说,如那里所讨论的,从所述成功概率移动时θθ\theta在Beta-伯努利例如赔率ψ=θ/(1−θ)ψ=θ/(1−θ)\psi=\theta/(1-\theta),它应该是的情况下,该后验满足P(1/3≤θ≤2/3∣X=x)=P(1/2≤ψ≤2∣X=x)P(1/3≤θ≤2/3∣X=x)=P(1/2≤ψ≤2∣X=x)P(1/3\leq\theta\leq 2/3\mid X=x)=P(1/2\leq\psi\leq 2\mid X=x)。 我想创建一个将θθ\theta转换为奇数ψψ\psi的Jeffreys先验不变性的数值示例,更有趣的是,缺少其他先验(例如Haldane,均等或任意先验)。 现在,如果成功概率的后验是Beta(对于任何Beta先验,不仅是Jeffreys),则赔率的后验遵循具有相同参数的第二种Beta分布(请参阅Wikipedia)。然后,正如下面的数字示例中突出显示的那样(至少对我来说),对于Beta优先级的任何选择(与alpha0_U和一起玩)都是不变的beta0_U,这不仅是Jeffreys,参见。程序的输出。 library(GB2) # has the Beta density of the 2nd kind, the distribution of theta/(1-theta) if theta~Beta(alpha,beta) theta_1 = 2/3 # a numerical example as in the above post theta_2 = 1/3 odds_1 = theta_1/(1-theta_1) # the corresponding odds odds_2 = theta_2/(1-theta_2) …

1
有关似然原理的问题
我目前尝试理解似然原理,但坦率地说我根本不懂。因此,即使这些问题可能是非常基本的问题,我也会将所有问题写成列表。 在此原则的上下文中,“所有信息”一词到底意味着什么?(就像样本中的所有信息都包含在似然函数中一样。) 该原理是否以某种可证明的事实与p(x|y)∝p(y|x)p(x)p(x|y)∝p(y|x)p(x)p(x|y)\propto p(y|x)p(x)?原则上的“可能性”与p(y|x)p(y|x)p(y|x)是否相同? 数学定理怎么会是“有争议的”?我对数学的(弱)理解是,一个定理要么被证明,要么未被证明。似然原理属于哪一类? 基于公式的贝叶斯推理对似然原理有何重要性?p(x|y)∝p(y|x)p(x)p(x|y)∝p(y|x)p(x)p(x|y)\propto p(y|x)p(x)

4
贝叶斯和常驻点估计量在什么条件下重合?
对于平坦的先验,ML(频率-最大似然)和MAP(贝叶斯-最大后验)估计量是重合的。 但是,更笼统地说,我说的是作为某些损失函数的优化子而得出的点估计量。即 )X(x^(.)=argminE(L(X−x^(y))|y) (Bayesian) x^(.)=argminE(L(X−x^(y))|y) (Bayesian) \hat x(\,. ) = \text{argmin} \; \mathbb{E} \left( L(X-\hat x(y)) \; | \; y \right) \qquad \; \,\text{ (Bayesian) } x^(.)=argminE(L(x−x^(Y))|x)(Frequentist)x^(.)=argminE(L(x−x^(Y))|x)(Frequentist) \hat x(\,. ) = \text{argmin} \; \mathbb{E} \left( L(x-\hat x(Y)) \; | \; x \right) \qquad \text{(Frequentist)} 其中EE\mathbb{E}是期望算子,LLL是损失函数(最小为零),x^(y)x^(y)\hat x(y) 是估计器,给定参数x的数据y,并且随机变量用大写字母表示。yyyxxx 是否有人知道LLL,xxx和y的pdf yyy,施加的线性度和/或无偏度的任何条件,这些条件在哪些条件下估计会重合? 编辑 …


2
频率和先验
罗比McKilliam说,在一个评论这个职位: 应该指出的是,从常客的观点来看,没有理由不能将先验知识整合到模型中。从这个意义上讲,常客视图更简单,您只有一个模型和一些数据。无需将先验信息与模型分开 另外,@ jbowman 在这里说,常客通过成本/罚函数使用正则化,而贝叶斯算法则可以将其作为先验: 频繁的人意识到正则化是好的,并且如今已经非常普遍地使用它-贝叶斯先验可以很容易地解释为正则化。 因此,我的问题是,贝叶斯主义者通常可以将贝叶斯主义者指定为先验者的常识纳入他们的模型吗?以正则化为例,成本/罚函数是否真的集成到了模型中,或者这仅仅是调整解决方案(以及使其唯一)的纯人工方式?


2
统计景观
有没有人对各种统计方法写过简短的调查?初步估计,您具有常客和贝叶斯统计。但是,当您仔细观察时,还可以使用其他方法,例如似然论和经验贝叶斯。然后在组内进行细分,例如贝叶斯统计中的主观贝叶斯目标贝叶斯等。 调查文章会很好。如果包含图表,那就更好了。

2
R中的非参数贝叶斯分析
我正在寻找有关R使用分层狄利克雷过程(HDP)(最近和流行的非参数贝叶斯方法之一)中的数据聚类的良好教程。 非参数贝叶斯分析有DPpackage(恕我直言,是所有可用方法中最全面的)R。但是我无法充分理解R News软件包参考手册中或软件包参考手册中提供的示例来编写HDP。 任何帮助或指针,表示赞赏。 此处提供了用于主题建模的HDP的C ++实现(请在底部查看C ++代码)

12
介绍统计数据分析的最佳书籍?
已锁定。该问题及其答案被锁定,因为该问题是题外话,但具有历史意义。它目前不接受新的答案或互动。 我买了这本书: 如何衡量一切:在企业中发现无形资产的价值 和 头先数据分析:大数,统计和好的决策学习者指南 您还会推荐哪些其他书籍?

2
有人可以用英语向我解释NUTS吗?
我对算法的理解如下: 没有掉头采样器(NUTS)是哈密顿蒙特卡罗方法。这意味着它不是马尔可夫链方法,因此该算法避免了通常被认为效率低且收敛缓慢的随机游走部分。 NUTS不会执行随机游走,而是执行长度为x的跳跃。随着算法继续运行,每次跳转都会加倍。这会一直发生,直到轨迹到达要返回起点的点为止。 我的问题:掉头有什么特别之处?如何将轨迹加倍不会跳过优化点?我的上述描述正确吗?

1
在无信息的Beta先验之间进行选择
我正在寻找无信息的先验信息,以进行Beta分发以使用二项式过程(命中率/小姐)。最初,我考虑使用生成统一的PDF,或者使用Jeffrey 优先使用。但是我实际上是在寻找对后验结果影响最小的先验,然后我考虑使用的不正确的先验。这里的问题是,只有当我至少有一次命中和一次错过时,我的后验分布才起作用。为了克服这个问题,我然后考虑使用一个非常小的常数,例如,只是为了确保后和将。α=1,β=1α=1,β=1\alpha=1, \beta=1α=0.5,β=0.5α=0.5,β=0.5\alpha=0.5, \beta=0.5α = 0,β= 0α=0,β=0\alpha=0, \beta=0α = 0.0001 ,β= 0.0001α=0.0001,β=0.0001\alpha=0.0001, \beta=0.0001αα\alphaββ\beta> 0>0>0 有谁知道这种方法是否可以接受?我看到了更改这些先验的数值效果,但是有人可以给我一种将像这样的小常数放在先验的解释吗?


4
贝叶斯统计如何处理先验缺失?
这个问题的灵感来自于我最近的两次互动,一次是在简历中,另一次是在Economics.se。 在那里,我已经发布了一个答案,以著名的“信封悖论”(请注意,不是在 “正确答案”,而是从具体的假设,流程约情况的结构的答案)。一段时间后,一个用户发表了评论,我进行了交谈,试图了解他的观点。很明显,他在思考贝叶斯方法,并不停地谈论先验-然后我恍然大悟,我对我自己说:“等一下,谁说过任何事先什么吗?在路上,我已经制定了问题,这里没有先验条件,他们只是不需要输入图片,也不需要”。 最近,我在简历中看到了关于统计独立性的答案。我向作者评论说他的判决 “ ...如果事件在统计上是独立的,那么(根据定义)我们不能从观察另一个事件中学到任何事情。” 是公然的错误。在评论交流中,他一直回头谈(他的话) ““学习”是否意味着基于对另一个事物的观察来改变我们对事物的信念? 再一次,很明显,他正在思考贝叶斯方法,并且他认为不言而喻,我们是从某种信念(即先验)开始的,然后是我们如何更改/更新它们的问题。但是,如何建立第一至第一的信念? 由于科学必须符合现实,因此我注意到存在这样的情况,即所涉及的人类没有先例(一件事,我一直都没有任何先例地进入情况,并且请不要争辩说我确实有先例,但是我只是不了解而已,让我们在此处进行虚假的精神分析)。 因为我碰巧听到过“无信息先验”一词,所以我将问题分为两个部分,并且我可以肯定,在贝叶斯理论中精通的用户确切知道我要问的问题: 问题1:是否没有先验等价物(从严格的理论意义上讲)与没有信息的先验相提并论? 如果对Q1的回答是“是”(请作详细说明),则意味着贝叶斯方法是普遍适用的,并且从一开始就适用,因为在任何情况下,涉案人员都宣称“我没有先验”,我们可以补充一下。它所处的先验地位对于手头的案件没有多大意义。 但是,如果对Q1的回答为“否”,那么Q2就会出现: 问题2:如果问题1的答案为“否”,是否表示在没有先验条件的情况下,贝叶斯方法从一开始就不适用,我们必须首先通过某种非贝叶斯方法形成先验条件,这样我们就可以随后应用贝叶斯方法了?

2
一个具有极高可能性的真正简单模型的例子将是什么?
近似贝叶斯计算是一种非常酷的技术,适用于基本上所有随机模型,适用于似然性难以解决的模型(例如,如果您固定了参数但无法通过数值,算法或分析方法来计算似然性,则可以从模型中进行采样)。当向观众介绍近似贝叶斯计算(ABC)时,最好使用一些示例模型,该模型非常简单,但仍然有些有趣,并且具有难以克服的可能性。 一个非常简单的模型仍然有难以解决的可能性,这将是一个很好的例子吗?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.