Questions tagged «prior»

在贝叶斯统计中,先验分布以概率分布的形式形式化了信息或知识(通常是主观的),这些信息或知识在看到样本之前就可用。当对参数知之甚少时,使用具有大分布的分布,而较窄的先验分布表示更大程度的信息。

1
Neg Binomial和Jeffreys的先验
我试图获得负二项式分布的Jeffreys先验。我看不到哪里出了问题,因此,如果有人可以指出这一点,将不胜感激。 好的,情况是这样的:我要比较使用二项式和负二项式获得的先验分布,(在两种情况下)都有试验且成功了。对于二项式情况,我得到了正确的答案,但是对于否定二项式,我没有得到正确的答案。nnnmmm 我们将其称为Jeffreys的先前。然后,πJ(θ)πJ(θ)\pi_J(\theta) πJ(θ)∝[I(θ)]1/2.πJ(θ)∝[I(θ)]1/2. \pi_J(\theta)\propto [I(\theta)]^{1/2}. 在常规条件下(在我们处理指数族时已实现), I(θ)=−E(∂2logL(θ|x)∂θ2)I(θ)=−E(∂2log⁡L(θ|x)∂θ2) I(\theta)=-E\left(\frac{\partial^2 \log L(\theta|x)}{\partial \theta^2}\right) 其中,负二项式n在上面nnn是xxx表达式(成功总数mmm是固定的,nnn不是固定的)。我认为分布是 p(m|θ)∝θm(1−θ)n−mp(m|θ)∝θm(1−θ)n−m p(m|\theta)\propto\theta^m(1-\theta)^{n-m} 因为θθ\theta被定义为成功的概率,而mmm 是成功的次数。这也是可能性,因为mmm是标量而不是向量。因此, L(θ|n)∝θm(1−θ)n−mlogL(θ|n)=mlogθ+(n−m)log(1−θ)∂logL(θ|n)∂θ=mθ−n−m1−θ∂2logL(θ|n)∂θ2=−mθ2−n−m(1−θ)2L(θ|n)∝θm(1−θ)n−mlog⁡L(θ|n)=mlog⁡θ+(n−m)log⁡(1−θ)∂log⁡L(θ|n)∂θ=mθ−n−m1−θ∂2log⁡L(θ|n)∂θ2=−mθ2−n−m(1−θ)2 L(\theta|n)\propto\theta^m(1-\theta)^{n-m}\\ \log L(\theta|n)=m\log\theta +(n-m)\log (1-\theta)\\ \frac{\partial\log L(\theta|n)}{\partial \theta}=\frac{m}{\theta}-\frac{n-m}{1-\theta}\\ \frac{\partial^2\log L(\theta|n)}{\partial \theta^2}=-\frac{m}{\theta^2}-\frac{n-m}{(1-\theta)^2} 因此Fisher信息是 I(θ)=−E(∂2logL(θ|n)∂θ2)=mθ2+E(n)−m(1−θ)2=mθ2+mθ1−θ−m(1−θ)2=m(1−θ)2+mθ3(1−θ)−mθ2θ2(1−θ)2=m(1−2θ)+mθ3(1−θ)θ2(1−θ)2=m(1−2θ)(1−θ)+mθ3θ2(1−θ)3=m(1−3θ+2θ2+θ3)θ2(1−θ)3∝1−3θ+2θ2+θ3θ2(1−θ)3I(θ)=−E(∂2log⁡L(θ|n)∂θ2)=mθ2+E(n)−m(1−θ)2=mθ2+mθ1−θ−m(1−θ)2=m(1−θ)2+mθ3(1−θ)−mθ2θ2(1−θ)2=m(1−2θ)+mθ3(1−θ)θ2(1−θ)2=m(1−2θ)(1−θ)+mθ3θ2(1−θ)3=m(1−3θ+2θ2+θ3)θ2(1−θ)3∝1−3θ+2θ2+θ3θ2(1−θ)3 I(\theta)=-E\left(\frac{\partial^2\log L(\theta|n)}{\partial \theta^2}\right)=\frac{m}{\theta^2}+\frac{E(n)-m}{(1-\theta)^2}=\frac{m}{\theta^2}+\frac{\frac{m\theta}{1-\theta}-m}{(1-\theta)^2}\\ =\frac{m(1-\theta)^2+\frac{m\theta^3}{(1-\theta)}-m\theta^2}{\theta^2(1-\theta)^2}=\frac{m(1-2\theta)+\frac{m\theta^3}{(1-\theta)}}{\theta^2(1-\theta)^2}\\ =\frac{m(1-2\theta)(1-\theta)+m\theta^3}{\theta^2(1-\theta)^3}=\frac{m(1-3\theta+2\theta^2+\theta^3)}{\theta^2(1-\theta)^3}\\ \propto\frac{1-3\theta+2\theta^2+\theta^3}{\theta^2(1-\theta)^3} 但是,这不能给我正确的答案。正确答案是 πJ(θ)∝1θ(1−θ)1/2πJ(θ)∝1θ(1−θ)1/2 \pi_J(\theta)\propto \frac{1}{\theta(1-\theta)^{1/2}} ,这意味着我得到的信息应该是 I(θ)=1θ2(1−θ)I(θ)=1θ2(1−θ) I(\theta)=\frac{1}{\theta^2(1-\theta)} 因为先验应与信息的平方根成比例。 谁能发现任何错误?如果我搞砸了发行版的设置(成功与失败以及各自的概率,等等),我不会感到惊讶。 我使用了Wikipedia的期望值,并且从这里知道正确的答案(第3页)。

2
什么是“单位信息优先权”?
我一直在阅读Wagenmakers(2007)一种解决普遍存在的p值问题的实用方法。我对将BIC值转换为贝叶斯因子和概率很感兴趣。但是,到目前为止,我对单元信息先验到底是什么还不太了解。我将不胜感激,对图片或此图片的R代码进行解释。

2
为什么对MCMC采样器有反对使用Jeffreys或基于熵的先验的建议?
Stan的开发人员在其Wiki页面上指出: 我们不喜欢的一些原理:不变性,杰弗里斯,熵 相反,我看到了很多正态分布建议。到目前为止,我使用了不依赖于采样贝叶斯方法,并且是那种高兴地明白了为什么是二项式可能性的不错选择。θ 〜贝塔( α = 12,β= 12)θ〜贝塔(α=1个2,β=1个2)\theta \sim \text{Beta}\left(\alpha=\frac{1}{2},\beta=\frac{1}{2}\right)
11 bayesian  mcmc  prior  pymc  stan 

1
为什么LKJcorr是相关矩阵的先验?
I'm阅读中(第13章“冒险协方差” 高超)一书统计反思理查德McElreath在那里,他提出以下层次模型: (R是一个相关矩阵) 作者解释说,这LKJcorr是信息量较弱的先验,可作为相关矩阵的正则化先验。但是为什么会这样呢?LKJcorr分布具有什么特征,使其成为相关矩阵的先验?相关矩阵在实践中还使用了哪些其他先验条件?


1
先验条件不正确的贝叶斯因素
我有一个关于使用贝叶斯因子进行模型比较的问题。在许多情况下,统计学家对使用贝叶斯方法使用不适当的先验条件(例如某些Jeffreys先验条件和参考先验条件)感兴趣。 我的问题是,在模型参数的后验分布定义明确的情况下,在使用不正确的先验条件下使用贝叶斯因子比较模型是否有效? 作为一个简单的示例,请考虑将普通模型与Logistic模型与Jeffreys Priors进行比较。

3
推销先验……用钱!
假设我有 “专家”,我想从中得出一些变量的先验分布。我想用真钱激励他们。这个想法是要得出先验,观察随机变量实现,然后根据他们的先验与证据的匹配程度在专家之间划分一些预定的“钱包”。在最后一部分中,将先验和证据映射到支付向量上有什么建议的方法?X Ñ XķķkXXXññnXXX
10 bayesian  prior 


3
贝叶斯估计器是否要求true参数是先验的可能变量?
这可能是一个有点哲学问题的,但在这里我们去:在决策理论,贝叶斯估计的风险为相对于定义为先验分布上。θ∈ΘπΘθ^(x)θ^(x)\hat\theta(x)θ∈Θθ∈Θ\theta\in\Thetaππ\piΘΘ\Theta 现在,一方面,为了使真实的生成数据(即“存在”),必须是下的可能变量,例如具有非零概率,非零密度等。另一方面,是未知的,因此先验的选择,因此我们不能保证真实的是我们选择的下的可能变量。θ π θ θ πθθ\thetaθθ\thetaππ\piθθ\thetaθθ\thetaππ\pi 现在,对我来说,似乎我们不得不以某种方式选择,以使成为可能的变量。否则,某些定理将不成立。例如,最小极大值的估计将不是最不利先验的贝叶斯估计,因为我们可以通过从其域中排除周围并包括的大区域来使该先验任意地变坏。但是,很难保证确实在域中。θ θππ\piθθ\thetaθθ\thetaθθ\theta 所以我的问题是: 通常是否假定实际是的可能变量?πθθ\thetaππ\pi 可以保证吗? 是否可以至少以某种方式检测到违反此情况的案例,所以在条件不成立时,不依赖最小定理等定理吗? 如果不需要,为什么决策理论中的标准结果成立呢?

1
哪种深度学习模型可以对不互斥的类别进行分类
示例:我的职位描述中有一句话:“英国Java高级工程师”。 我想使用深度学习模型将其预测为2类:English 和IT jobs。如果我使用传统的分类模型,则只能预测softmax最后一层具有功能的标签。因此,我可以使用2个模型神经网络来预测两个类别的“是” /“否”,但是如果我们有更多类别,那就太贵了。那么,我们是否有任何深度学习或机器学习模型可以同时预测2个或更多类别? “编辑”:使用传统方法使用3个标签,它将由[1,0,0]编码,但在我的情况下,它将由[1,1,0]或[1,1,1]编码 示例:如果我们有3个标签,并且所有这些标签都适合一个句子。因此,如果softmax函数的输出为[0.45,0.35,0.2],我们应该将其分类为3个标签或2个标签,或者可以是一个?我们这样做的主要问题是:分类为1个,2个或3个标签的最佳阈值是多少?
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

1
如何确定先验概率分布?有没有应该使用的经验法则或技巧?
尽管我想认为自己对贝叶斯统计分析和决策中的先验信息概念有很好的了解,但我经常难以理解它的应用。我想到了几种情况,这些都是我奋斗的例证,而且我认为到目前为止,我所读过的贝叶斯统计教科书并未适当地解决这些问题: 假设我几年前进行了一项调查,其中说68%的人会对购买ACME产品感兴趣。我决定再次进行调查。虽然我将使用与上次相同的样本量(例如n = 400),但此后人们的看法可能已经改变。但是,如果我使用beta分布作为先验,在400位受访者中有272位回答“是”,那么我将对几年前进行的调查和现在正在进行的调查给予同等的重视。是否有经验法则来确定我想基于数据存在数年之久的更大不确定性?我知道我可以将优先级从272/400降低到136/200,但这感觉非常武断,我想知道在文献中是否存在某种形式的辩护, 再举一个例子,假设我们要进行一项临床试验。在启动试验之前,我们进行了一些辅助研究,可以用作以前的信息,包括专家意见,先前临床试验的结果(具有不同的相关性),其他基本的科学事实等。如何结合这些信息范围(其中有些是非量化的)到先前的概率分布?只是为了决定选择哪个家庭并使其充分分散以确保其不被数据淹没而已,还是为了建立一个相当有用的先验分布而做了大量工作?

1
根据测量误差选择先验
如果您有仪器的测量误差,如何计算适当的先验值?本段摘自Cressie的书“时空数据统计”: 通常情况下,可以使用一些有关测量误差方差的先验信息,从而可以指定相当有用的参数模型。例如,如果我们假设条件独立的测量误差为iid ,那么我们应该为指定一个信息先验。假设我们对环境空气温度感兴趣,并且我们看到仪器制造商的技术指标表明“误差”为±0.1°C。假定此“错误”对应于2个标准差(应检查的假设!),然后我们可以指定\ sigma _ {\ epsilon} ^ {2}的先前平均值为(0.1 / 2)^ 2 = 0.0025Gau(0,σ2ϵ)Gau(0,σϵ2)Gau(0, \sigma_{\epsilon}^2)σ2ϵσϵ2\sigma_{\epsilon}^2±0.1°C±0.1°C±0.1°Cσ2ϵσϵ2\sigma_{\epsilon}^{2}(0.1/2)2=0.0025(0.1/2)2=0.0025(0.1/2)^2 = 0.0025。由于仪器制造商的规范,我们假设分布在0.0025处具有明确定义且相当窄的峰(例如,反伽马)。实际上,我们可以将其固定为0.0025;但是,数据模型错误也可能具有其他不确定性因素(第7.1节)。为避免过程模型错误可能引起的可识别性问题,建模人员应尽可能减少《科学》杂志的不确定性,包括进行旨在复制数据的辅助研究,这一点非常重要。 有谁知道如上所述获得先验值的一般程序是什么(尽管该段仅涉及获得先验均值)?

2
贝叶斯环境中先验的“健忘”?
众所周知,随着您拥有更多的证据(例如,对于 nid个示例,以更大的的形式出现),贝叶斯先验被“遗忘”,并且大多数推论都受到证据(或可能性)的影响。nnnnnn 很容易在各种特定情况下看到它(例如带有Beta优先级的Bernoulli或其他类型的示例)-但是在和一些先前的?x1,…,xn∼p(x|μ)x1,…,xn∼p(x|μ)x_1,\ldots,x_n \sim p(x|\mu)p(μ)p(μ)p(\mu) 编辑:我猜想它不能在一般情况下显示任何先验(例如,先有先有质量将使后验有先有质量)。但是也许在某些情况下会忘记先验。 这是我正在考虑显示的“路径”类型: 假设参数空间为,并且令和为两个先验值,它们在所有上放置非零概率质量。因此,每个先验的两次后验计算为:ΘΘ\Thetap(θ)p(θ)p(\theta)q(θ)q(θ)q(\theta)ΘΘ\Theta p(θ|x1,…,xn)=∏ip(xi|θ)p(θ)∫θ∏ip(xi|θ)p(θ)dθp(θ|x1,…,xn)=∏ip(xi|θ)p(θ)∫θ∏ip(xi|θ)p(θ)dθp(\theta | x_1,\ldots,x_n) = \frac{\prod_i p(x_i | \theta) p(\theta)}{\int_{\theta} \prod_i p(x_i | \theta) p(\theta) d\theta} 和 q(θ|x1,…,xn)=∏ip(xi|θ)q(θ)∫θ∏ip(xi|θ)q(θ)dθq(θ|x1,…,xn)=∏ip(xi|θ)q(θ)∫θ∏ip(xi|θ)q(θ)dθq(\theta | x_1,\ldots,x_n) = \frac{\prod_i p(x_i | \theta) q(\theta)}{\int_{\theta} \prod_i p(x_i | \theta) q(\theta) d\theta} 如果将除以(后验),则得到:pppqqq p(θ|x1,…,xn)/q(θ|x1,…,xn)=p(θ)∫θ∏ip(xi|θ)q(θ)dθq(θ)∫θ∏ip(xi|θ)p(θ)dθp(θ|x1,…,xn)/q(θ|x1,…,xn)=p(θ)∫θ∏ip(xi|θ)q(θ)dθq(θ)∫θ∏ip(xi|θ)p(θ)dθp(\theta | x_1,\ldots,x_n)/q(\theta | x_1,\ldots,x_n) = \frac{p(\theta)\int_{\theta} \prod_i p(x_i | …
9 bayesian  prior 

2
允许数据决定先验条件,然后使用这些先验条件运行模型?(例如,来自同一数据集的数据驱动先验)
我的理解是,我们不应该允许我们正在分析的同一数据集来驱动/定义贝叶斯分析中的先验分布。特别是,基于来自同一数据集的摘要统计信息来定义贝叶斯分析的先验分布是不合适的,然后您将使用先验来帮助模型拟合。 有谁碰巧知道专门讨论这是不合适的资源?我需要对此问题进行一些引用。
9 bayesian  prior 
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.