Questions tagged «invariance»

2
与Jeffreys不同,先验的示例导致后验不变
我将在两周前在这里提出的问题重新发布“答案”:为什么Jeffreys事前有用?不过,这确实是一个问题(我当时也无权发表评论),所以我希望可以这样做: 在上面的链接中,讨论了Jeffreys Prior的有趣特征是,在重新参数化模型时,所得后验分布给出了服从变换施加的约束的后验概率。比方说,如那里所讨论的,从所述成功概率移动时θθ\theta在Beta-伯努利例如赔率ψ=θ/(1−θ)ψ=θ/(1−θ)\psi=\theta/(1-\theta),它应该是的情况下,该后验满足P(1/3≤θ≤2/3∣X=x)=P(1/2≤ψ≤2∣X=x)P(1/3≤θ≤2/3∣X=x)=P(1/2≤ψ≤2∣X=x)P(1/3\leq\theta\leq 2/3\mid X=x)=P(1/2\leq\psi\leq 2\mid X=x)。 我想创建一个将θθ\theta转换为奇数ψψ\psi的Jeffreys先验不变性的数值示例,更有趣的是,缺少其他先验(例如Haldane,均等或任意先验)。 现在,如果成功概率的后验是Beta(对于任何Beta先验,不仅是Jeffreys),则赔率的后验遵循具有相同参数的第二种Beta分布(请参阅Wikipedia)。然后,正如下面的数字示例中突出显示的那样(至少对我来说),对于Beta优先级的任何选择(与alpha0_U和一起玩)都是不变的beta0_U,这不仅是Jeffreys,参见。程序的输出。 library(GB2) # has the Beta density of the 2nd kind, the distribution of theta/(1-theta) if theta~Beta(alpha,beta) theta_1 = 2/3 # a numerical example as in the above post theta_2 = 1/3 odds_1 = theta_1/(1-theta_1) # the corresponding odds odds_2 = theta_2/(1-theta_2) …

2
从贝叶斯角度来看,ML估计量的不变性是荒谬的吗?
Casella和Berger表示ML估计量的不变性如下: 但是,在我看来,他们以完全临时的,荒谬的方式定义的“可能性” :ηη\eta 如果我将概率论的基本规则应用于简单情况,我将得到以下结果: 现在应用贝叶斯定理,然后应用和是互斥的,因此我们可以应用求和规则: 大号(η | X )= p (X | θ 2 = η )= p (X | θ = - √η= τ(θ )= θ2η=τ(θ)=θ2\eta=\tau(\theta)=\theta^2甲乙p(X|甲∨乙)=p(X) p (甲∨ 乙| X )L (η| x)=p(x | θ2= η)= p (X | θ = - η–√∨ θ = η–√)= : p (X …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.