Questions tagged «bayesian»

贝叶斯推断是一种统计推断的方法,该方法依赖于将模型参数视为随机变量,并应用贝叶斯定理来推导有关参数或假设的主观概率陈述(取决于观察到的数据集)。

2
从贝叶斯角度来看,ML估计量的不变性是荒谬的吗?
Casella和Berger表示ML估计量的不变性如下: 但是,在我看来,他们以完全临时的,荒谬的方式定义的“可能性” :ηη\eta 如果我将概率论的基本规则应用于简单情况,我将得到以下结果: 现在应用贝叶斯定理,然后应用和是互斥的,因此我们可以应用求和规则: 大号(η | X )= p (X | θ 2 = η )= p (X | θ = - √η= τ(θ )= θ2η=τ(θ)=θ2\eta=\tau(\theta)=\theta^2甲乙p(X|甲∨乙)=p(X) p (甲∨ 乙| X )L (η| x)=p(x | θ2= η)= p (X | θ = - η–√∨ θ = η–√)= : p (X …

1
为什么多项式回归中的贝叶斯可信区间偏向而置信区间正确?
考虑下面的绘图,在该绘图中,我模拟了以下数据。我们看一下二元结果,用黑线表示真实概率为1。协变量x和p (y o b s = 1 | x )之间的函数关系是具有逻辑链接的三阶多项式(因此在双向过程中是非线性的)。yobsyobsy_{obs}xxxp(yobs=1|x)p(yobs=1|x)p(y_{obs}=1 | x) 绿线是GLM logistic回归拟合,其中被引入为三阶多项式。虚线绿线是围绕预测的95%置信区间p (Ý ø b 小号 = 1 | X ,β),其中β拟合回归系数。我曾经和这个。xxxp(yobs=1|x,β^)p(yobs=1|x,β^)p(y_{obs}=1 | x, \hat{\beta})β^β^\hat{\beta}R glmpredict.glm 类似地,pruple线与95%可信区间的平均后的使用均匀现有贝叶斯逻辑回归模型的。为此,我使用了具有功能的软件包(设置提供了统一的先验信息)。p(yobs=1|x,β)p(yobs=1|x,β)p(y_{obs}=1 | x, \beta)MCMCpackMCMClogitB0=0 红点表示数据集中的观测值,黑点表示y o b s = 0的观测值。请注意,在分类/离散分析中常见的是y,但没有观察到p (y o b s = 1 | x )。yobs=1yobs=1y_{obs}=1yobs=0yobs=0y_{obs}=0yyyp(yobs=1|x)p(yobs=1|x)p(y_{obs}=1 | x) 可以看到几件事: 我故意模拟了左手稀疏。我希望由于缺乏信息(观察)而在这里扩大信心和可信区间。xxx …

3
贝叶斯模型选择和可信区间
我有一个包含三个变量的数据集,其中所有变量都是定量的。让我们将其称为,和。我通过MCMC在贝叶斯角度拟合回归模型yyyx1x1x_1x2x2x_2rjags 我进行了探索性分析,的散点图建议应使用二次项。然后我装了两个模型y×x2y×x2y\times x_2 (1)y=β0+β1∗x1+β2∗x2y=β0+β1∗x1+β2∗x2y=\beta_0+\beta_1*x_1+\beta_2*x_2 (2)y=β0+β1∗x1+β2∗x2+β3∗x1x2+β4∗x21+β5∗x22y=β0+β1∗x1+β2∗x2+β3∗x1x2+β4∗x12+β5∗x22y=\beta_0+\beta_1*x1+\beta_2*x_2+\beta_3*x_1x_2+\beta_4*x_1^2+\beta_5*x_2^2 在模型1中,每个参数的效果大小都不小,并且95%可信区间的值不为。000 在模型2中,参数和的效果大小较小,并且所有参数的可信区间均包含。β3β3\beta_3β4β4\beta_4000 可信区间包含的事实足以说明该参数不重要吗?000 然后我调整了以下模型 (3)y=β0+β1∗x1+β2∗x2+β3∗x22y=β0+β1∗x1+β2∗x2+β3∗x22y=\beta_0+\beta_1*x_1+\beta_2*x_2+\beta_3*x^2_2 每个参数的效果大小都不小,但是除外,所有可信区间都包含。 0β1β1\beta_1000 在贝叶斯统计中进行变量选择的正确方法是哪种? 编辑:我可以在任何回归模型(如Beta模型)中使用套索吗?我使用的是变量分散的模型,其中 其中是向量。我也应该在使用Laplace 吗?δlog(σ)=−δδXlog(σ)=−δδXlog(\sigma)=-\pmb{\delta}Xδδδδδ\pmb{\delta}δδδδ\pmb{\delta} EDIT2:我安装了两个模型,一个模型具有针对,高斯先验模型,另一种具有Laplace(double-exponential)模型。δ Ĵβjβj\beta_jδjδj\delta_j 高斯模型的估计是 Mean SD Naive SE Time-series SE B[1] -1.17767 0.07112 0.0007497 0.0007498 B[2] -0.15624 0.03916 0.0004128 0.0004249 B[3] 0.15600 0.05500 0.0005797 0.0005889 B[4] 0.07682 0.04720 0.0004975 0.0005209 delta[1] -3.42286 0.32934 0.0034715 0.0034712 …

1
哪种深度学习模型可以对不互斥的类别进行分类
示例:我的职位描述中有一句话:“英国Java高级工程师”。 我想使用深度学习模型将其预测为2类:English 和IT jobs。如果我使用传统的分类模型,则只能预测softmax最后一层具有功能的标签。因此,我可以使用2个模型神经网络来预测两个类别的“是” /“否”,但是如果我们有更多类别,那就太贵了。那么,我们是否有任何深度学习或机器学习模型可以同时预测2个或更多类别? “编辑”:使用传统方法使用3个标签,它将由[1,0,0]编码,但在我的情况下,它将由[1,1,0]或[1,1,1]编码 示例:如果我们有3个标签,并且所有这些标签都适合一个句子。因此,如果softmax函数的输出为[0.45,0.35,0.2],我们应该将其分类为3个标签或2个标签,或者可以是一个?我们这样做的主要问题是:分类为1个,2个或3个标签的最佳阈值是多少?
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

6
使用p值计算假设为真的可能性;还需要什么?
题: 对p值的一个普遍误解是,它们代表原假设为真的概率。我知道这是不正确的,并且我知道p值仅代表找到样本的可能性,因为原假设是真的。但是,从直觉上讲,一个人应该能够从后者派生第一个。没有人这样做,一定有原因。我们缺少哪些信息,这些信息限制了我们从p值和相关数据得出假设成立的可能性? 例: 我们的假设是“维生素D影响情绪”(无效假设是“无效”)。假设我们对1000人进行了适当的统计研究,发现情绪与维生素水平之间存在相关性。在所有其他条件相同的情况下,p值0.01表示真实假设的可能性比p值0.05更高。假设我们得到的p值为0.05。为什么我们不能计算假设为真的实际概率?我们缺少什么信息? 常客统计学家的备用术语: 如果您接受我的问题的前提,则可以在这里停止阅读。以下内容适用于拒绝接受假设可以进行概率解释的人们。让我们暂时忘记术语。代替... 假设您与朋友下注。您的朋友向您展示了有关无关主题的一千项统计研究。对于每个研究,您只能查看p值,样本大小和样本的标准偏差。对于每项研究,您的朋友都会给您提供一定的机会来打赌研究中提出的假设是正确的。您可以选择下注或不下注。在为所有1000项研究下注后,一个先知会升华,并告诉您哪个假设是正确的。此信息使您可以下注。我的主张是该游戏存在最佳策略。在我的世界观中,这相当于知道假设为真的概率,但是如果我们不同意,那就很好。在那种情况下,我们可以简单地讨论采用p值以最大程度地期望下注的方法。

1
对高斯过程回归方程推导的怀疑
我正在阅读本文的预印本,在他们推导高斯过程回归方程式时遇到了困难。他们使用Rasmussen&Williams的设置和符号。因此,假定具有方差加性,零均值,平稳和正态分布噪声:σ2Ñ ø 我小号ËσñØ一世sË2\sigma^2_{noise} ÿ= f(x)+ ϵ ,ε 〜Ñ(0 ,σ2Ñ ø 我小号Ë)ÿ=F(X)+ϵ,ϵ〜ñ(0,σñØ一世sË2)y=f(\mathbf{x})+\epsilon, \quad \epsilon\sim N(0,\sigma^2_{noise}) 对于假定GP均值为零,这意味着,\ mathbf {f} = \ {f(\ mathbf {x_1}),\ dots,f (\ mathbf {x_d})\}是具有均值0和协方差矩阵的高斯向量F(x)F(X)f(\mathbf{x})∀ d ∈ ñ∀ d∈ñ\forall \ d\in NF= { f(x1个),…,f(xd)}f={f(x1),…,f(xd)}\mathbf{f}=\{f(\mathbf{x_1}),\dots,f(\mathbf{x_d})\} Σd=⎛⎝⎜⎜k(x1,x1)k(xd,x1)⋱k(x1,xd)k(xd,xd)⎞⎠⎟⎟Σd=(k(x1,x1)k(x1,xd)⋱k(xd,x1)k(xd,xd))\Sigma_d=\pmatrix{k(\mathbf{x_1},\mathbf{x_1})& & k(\mathbf{x_1},\mathbf{x_d}) \\ & \ddots & \\k(\mathbf{x_d},\mathbf{x_1})& & k(\mathbf{x_d},\mathbf{x_d}) } 从现在开始,我们假设超参数是已知的。那么,论文的等式(4)是显而易见的: p(f,f∗)=N(0,(Kf,fKf∗,fKf∗,fKf∗,f∗))p(f,f∗)=N(0,(Kf,fKf∗,fKf∗,fKf∗,f∗))p(\mathbf{f},\mathbf{f^*})=N\left(0,\pmatrix { K_{\mathbf{f},\mathbf{f}} …

2
随机变分推断在高斯贝叶斯混合中的应用
我试图实现与随机变推理高斯混合模型,如下文。 这是高斯混合的pgm。 根据本文,随机变异推断的完整算法为: 我仍然对将其缩放到GMM的方法感到非常困惑。 首先,我认为局部变分参数仅为qzqzq_z,其他均为全局参数。如果我错了,请纠正我。步骤6是什么意思as though Xi is replicated by N times?我应该怎么做才能做到这一点? 你能帮我吗?提前致谢!

1
贝叶斯统计如何估算参数的示例,这些参数很难通过惯常方法进行估算
贝叶斯统计学家坚持认为“贝叶斯统计可以估算出参数,而这些参数很难通过惯常方法来估算”。从SAS文档中引用的以下内容是否表示同一件事? 它提供了以数据为条件且准确的推断,而无需依赖渐近逼近。小样本推论以与大样本一样的方式进行。贝叶斯分析还可以直接估计参数的任何功能,而无需使用“插入”方法(一种通过将估计的参数插入功能中来估计功能的方法)。 我在某些教科书中看到过类似的陈述,但不记得在哪里。有人可以举例说明吗?

1
贝叶斯在线变更点检测(边际预测分布)
我正在阅读Adams和MacKay 的贝叶斯在线变更点检测论文(链接)。 作者从写边际预测分布开始: 其中P(xt+1|x1:t)=∑rtP(xt+1|rt,x(r)t)P(rt|x1:t)(1)P(xt+1|x1:t)=∑rtP(xt+1|rt,xt(r))P(rt|x1:t)(1) P(x_{t+1} | \textbf{x}_{1:t}) = \sum_{r_t} P(x_{t+1} | r_t, \textbf{x}_t^{(r)}) P(r_t | \textbf{x}_{1:t}) \qquad \qquad (1) xtxtx_t是在时间的观测;ttt x1:tx1:t\textbf{x}_{1:t}表示直到时间的观测;ttt rt∈Nrt∈Nr_t \in \mathbb{N}是当前游程长度(自上一个更改点以来的时间,可以为0);和 x(r)txt(r)\textbf{x}_t^{(r)}是与运行相关的观察值集合。rtrtr_t 等式 1在形式上是正确的(请参阅下面@JuhoKokkala的回复),但是我的理解是,如果您想对进行实际预测,则需要将其扩展如下:xt+1xt+1x_{t+1} P(xt+1|x1:t)=∑rt,rt+1P(xt+1|rt+1,x(r)t)P(rt|x1:t)P(rt+1|rt)(1b)P(xt+1|x1:t)=∑rt,rt+1P(xt+1|rt+1,xt(r))P(rt|x1:t)P(rt+1|rt)(1b) P(x_{t+1} | \textbf{x}_{1:t}) = \sum_{r_t, r_{t+1}} P(x_{t+1} | r_{t+1}, \textbf{x}_t^{(r)}) P(r_t | \textbf{x}_{1:t}) P(r_{t+1} | r_t) \qquad (1\text{b}) 我的理由是,(未来)时间t + 1可能会有一个变化点t+1t+1t+1,但后验P(rt|x1:t)P(rt|x1:t)P(r_t | …

3
贝叶斯何时(以及为什么)拒绝有效的贝叶斯方法?[关闭]
已关闭。这个问题需要细节或说明。它当前不接受答案。 想改善这个问题吗?添加详细信息并通过编辑此帖子来澄清问题。 3年前关闭。 从我阅读的内容以及对我在此处提出的其他问题的答案来看,许多所谓的常客方法在数学上都对应于特殊情况(所谓“频繁主义者”在数学上相对应,我不在乎它们是否在数学上相对应,我只是在乎它是否在数学上相对应)。贝叶斯方法(对于那些反对者,请参阅此问题底部的注释)。这个对相关问题(不是我的问题)的回答支持以下结论: 大多数Frequentist方法都具有贝叶斯等效项,在大多数情况下,其结果基本相同。 注意,在下文中,数学上相同意味着给出相同结果。如果您描述两种方法的特征,可以证明它们总是能得到与“不同”相同的结果,那是您的权利,但这是一种哲学判断,而不是数学判断或实践判断。 但是,许多自称为“贝叶斯方法”的人似乎拒绝在任何情况下都使用最大似然估计,尽管这是(数学上)贝叶斯方法的特例,因为它是“频率论方法”。显然,与贝叶斯主义者相比,贝叶斯主义者还使用有限/有限数量的分布,即使从贝叶斯观点来看,这些分布在数学上也是正确的。 问题:从贝叶斯的角度来看,贝叶斯何时,为什么拒绝在数学上正确的方法?有没有不是“哲学上的”理由吗? 背景/上下文:以下是我对CrossValidated上一个问题的回答和评论中的引文: 贝叶斯与频繁主义者辩论的数学基础非常简单。在贝叶斯统计中,未知参数被视为随机变量。在常客统计中,它被视为固定要素... 从以上所述,我可以得出以下结论:(从数学上来说)贝叶斯方法比常客方法更通用,在某种意义上,常客模型满足所有与贝叶斯模型相同的数学假设,反之则不然。但是,相同的答案也认为我从以上得出的结论是错误的(以下是我的结论): 尽管常数是随机变量的特例,但我还是会得出结论,贝叶斯主义更为笼统。简单地将随机变量折叠成一个常数,就不会从贝叶斯函数得到频繁的结果。区别更加深刻... 根据个人喜好...我不喜欢贝叶斯统计使用可用分布的有限子集。 另一位用户,在他们的答案,说正好相反,贝叶斯方法都比较一般,但奇怪的是我能找到的,为什么这可能是这种情况的最好理由是以前的答案,有人作为一个训练有素的频率论定。 数学上的结果是,频繁主义者认为概率的基本方程式有时仅适用,而贝叶斯主义者则认为它们总是适用。因此,他们认为相同的方程式是正确的,但是在通用性上却有所不同……贝叶斯严格比频率论更为通用。由于任何事实都可能存在不确定性,因此可以为任何事实分配概率。特别是,如果您正在处理的事实与现实世界的频率有关(无论是您预测的还是数据的一部分),那么贝叶斯方法就可以像对待任何其他现实世界的事实一样考虑和使用它们。因此,频频主义者觉得他们的方法适用于贝叶斯方法的任何问题也可以自然地解决。 从以上答案中,我得到的印象是,至少有两个常用的贝叶斯术语的不同定义。首先,我将其称为“数学贝叶斯”,它涵盖了所有统计方法,因为它包含了恒定RV和非恒定RV的参数。然后是“文化上的贝叶斯”方法,它拒绝了某些“数学上的贝叶斯”方法,因为这些方法是“频繁的”(即出于对参数的个人仇恨,有时将其建模为常数或频率)。对上述问题的另一个答案似乎也支持这一推测: 还要注意的是,两个营地所使用的模型之间存在很大的差异,这与已完成的事情比可以完成的事情更多相关(即,一个营地传统上使用的许多模型可以由另一个营地证明))。 因此,我想表达我的问题的另一种方式是:如果文化贝叶斯人拒绝许多数学上的贝叶斯方法,为什么他们会称自己为贝叶斯人?为什么他们拒绝这些数学上的贝叶斯方法?对于最经常使用这些特定方法的人来说,这是个人仇恨吗? 编辑:如果两个对象具有相同的属性,则无论它们如何构造,在数学上都是等效的。例如,我可以想到至少五种不同的方式来构造虚部。然而,关于虚数的研究至少没有五种不同的“思想流派”。实际上,我相信只有一个人,即研究他们属性的那个人。对于那些反对使用最大似然来获得点估计与使用最大先验和统一先验来获得点估计的人不同,因为所涉及的计算是不同的,我承认它们在哲学意义上是不同的,但是他们总是在多大程度上一世ii给出相同的估计值,它们在数学上是等效的,因为它们具有相同的属性。哲学上的差异可能与您个人相关,但与该问题无关。 注意:此问题最初具有统一先验的MLE估计和MAP估计的不正确表征。

1
通过随机度量进行集成意味着什么?
目前,我在看Dirichlet过程随机效应模型的纸和型号规格如下: 其中α是比例参数和G ^0是基量度。稍后在纸,它表明,我们整合在基座度量函数G ^0如 ∫˚F(Ý Ĵ |θ,ψ Ĵ)ÿ一世ψ一世G= X一世β+ ψ一世+ ϵ一世〜g ^〜d P(α ,G0)yi=Xiβ+ψi+ϵiψi∼GG∼DP(α,G0) \begin{align*}y_{i} &= X_{i}\beta + \psi_{i} + \epsilon_{i}\\ \psi_{i} &\sim G \\ G &\sim \mathcal{DP}\left(\alpha, G_{0}\right) \end{align*}αα\alphaG0G0G_{0}G0G0G_{0}Dirichlet处理中的基本度量是cdf还是pdf?如果基本度量是高斯会怎样?∫F(yĴ| θ, ψĴ)dG0(ψĴ)。∫f(yj|θ,ψj)dG0(ψj). \int f\left(y_{j}|\theta, \psi_{j}\right)\, dG_{0}\left(\psi_{j}\right).

2
贝叶斯估计量之间的比较
考虑二次损失,先验给定其中。令 的可能性。找到贝叶斯估计器。 π (θ )L (θ ,δ)= (θ - δ)2L(θ,δ)=(θ−δ)2L(\theta,\delta)=(\theta-\delta)^2π(θ )π(θ)\pi(\theta)˚F (X | θ )= θ X θ - 1 我[ 0 ,1 ](X ),θ > 0 δ ππ(θ )〜ù(0 ,1 / 2 )π(θ)∼U(0,1/2)\pi(\theta)\sim U(0,1/2)F(X | θ )= θ Xθ - 1一世[ 0 ,1 ](x ),θ > 0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπδπ\delta^\pi …

2
从纸上帮助期望最大化:如何包括事先分配?
该问题基于题为:使用耦合的辐射传输-扩散模型的漫射光学层析成像中的图像重建 下载链接 作者应用具有未知向量稀疏正则化的EM算法来估计图像的像素。该模型由 μl1升1个l_1μμ\mu y=Aμ+e(1)(1)ÿ=一个μ+Ëy=A\mu + e \tag{1} 估算值在等式(8)中给出为 μ^=argmaxlnp(y|μ)+γlnp(μ)(2)(2)μ^=精氨酸⁡米一个Xln⁡p(ÿ|μ)+γln⁡p(μ)\hat{\mu} = \arg max {\ln p(y|\mu) + \gamma \ln p(\mu)} \tag{2} 在我的情况下,我已经将视为长度为的过滤器,而是代表过滤器的向量。所以,大号μ大号× 1μμ\muL大号Lμμ\mathbf{\mu}L×1大号×1个L \times 1 该模型可以重写为y(n)=μTa(n)+v(n)(3)(3)ÿ(ñ)=μŤ一个(ñ)+v(ñ)y(n) = \mathbf{\mu^T}a(n) + v(n) \tag{3} 问题:问题公式:(n乘以1)是未观察到的输入,是零均值,方差未知加性噪声。MLE解决方案将基于期望最大化(EM)。 { È (Ñ )} σ 2 ëμ(n)μ(n){\mu(n)}{e(n)}{e(n)}\{e(n)\}σ2Ëσe2\sigma^2_e 在本文中,方程(19)是函数-完整的对数似然性,但是对于我而言,我不理解如何在完整的对数似然表达式中包含的分布。 甲,μ一个AA甲,μA,μA, \mu 使用 EM(包括先验分布)的完全对数似然是什么?ÿyy

1
如何确定先验概率分布?有没有应该使用的经验法则或技巧?
尽管我想认为自己对贝叶斯统计分析和决策中的先验信息概念有很好的了解,但我经常难以理解它的应用。我想到了几种情况,这些都是我奋斗的例证,而且我认为到目前为止,我所读过的贝叶斯统计教科书并未适当地解决这些问题: 假设我几年前进行了一项调查,其中说68%的人会对购买ACME产品感兴趣。我决定再次进行调查。虽然我将使用与上次相同的样本量(例如n = 400),但此后人们的看法可能已经改变。但是,如果我使用beta分布作为先验,在400位受访者中有272位回答“是”,那么我将对几年前进行的调查和现在正在进行的调查给予同等的重视。是否有经验法则来确定我想基于数据存在数年之久的更大不确定性?我知道我可以将优先级从272/400降低到136/200,但这感觉非常武断,我想知道在文献中是否存在某种形式的辩护, 再举一个例子,假设我们要进行一项临床试验。在启动试验之前,我们进行了一些辅助研究,可以用作以前的信息,包括专家意见,先前临床试验的结果(具有不同的相关性),其他基本的科学事实等。如何结合这些信息范围(其中有些是非量化的)到先前的概率分布?只是为了决定选择哪个家庭并使其充分分散以确保其不被数据淹没而已,还是为了建立一个相当有用的先验分布而做了大量工作?

1
一个骰子有多少面?JAGS中的贝叶斯推断
问题 我想对类似于死边数未知的系统进行一些推断。模具被轧制了几次,然后我想推断出与模具具有的边数θ相对应的参数的概率分布。 直觉 如果在40次滚动后您观察到10个红色,10个蓝色,10个绿色和10个黄色,似乎θ应该在4处达到峰值,并且每侧滚动的偏差都是以1/4为中心的分布。 θ有一个很小的下限,即在数据中观察到的不同边的数量。 上限仍然未知。可能存在第五个方面,可能具有较低的偏见。您观察到的缺少第五类的数据越多,θ= 4的后验概率越高。 方法 我已经使用JAGS解决了类似的问题(通过R和rjags),这在这里似乎很合适。 关于数据,可以说obs <- c(10, 10, 10, 10)对应于以上示例中的观察结果。 我认为观测值应该用多项式分布建模obs ~ dmulti(p, n),其中p ~ ddirch(alpha)和n <- length(obs)。 θ与所隐含的类别数量相关联alpha,那么如何建模alpha以涵盖不同的可能类别数量? 备择方案? 我对贝叶斯分析还很陌生,因此可能完全是在树错了树,是否有替代模型可以对这个问题提供不同的见解? 非常感谢!大卫

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.