Questions tagged «bayesian»

贝叶斯推断是一种统计推断的方法,该方法依赖于将模型参数视为随机变量,并应用贝叶斯定理来推导有关参数或假设的主观概率陈述(取决于观察到的数据集)。

3
经验似然的一些说明性应用是什么?
我听说过欧文的经验可能性,但是直到最近我才对它感兴趣,直到我在一篇感兴趣的论文中碰到了它(Mengersen等,2012)。 在我的努力去理解它,我已经收集所观察到的数据的似然性被表示为L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L = \prod_i p_i = \prod_i P(X_i=x) = \prod_i P(X_i \le x) - P(X_i \lt x) ,其中∑ipi=1∑ipi=1\sum_i p_i = 1且pi>0pi>0p_i > 0。 但是,我无法在将这种表示法与如何用于对观察结果进行推论的连接上进行精神上的飞跃。也许我太扎根于考虑模型的似然参数? 无论如何,我一直在Google学术搜索中寻找一些采用经验可能性的论文,这些论文将有助于我将这个概念内化……无济于事。显然,有Art Owen的《Empirical Likelihood》一书,但Google图书遗漏了所有可口的东西,而且我在图书馆之间借阅的过程仍很缓慢。 同时,有人可以请我指出清楚说明经验可能性的前提以及如何应用的论文吗?EL本身的说明性描述也将受到欢迎!

1
从lmer模型计算效果的可重复性
我刚刚碰到了这篇论文,该论文描述了如何通过混合效应建模来计算测量的可重复性(又称可靠性,又称类内相关性)。R代码为: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted repeatability R = intercept_var/(intercept_var+residual_var) #compute n0, the repeatability adjustment n = as.data.frame(table(my_data$unit)) k = nrow(n) N = sum(n$Freq) n0 = (N-(sum(n$Freq^2)/N))/(k-1) #compute the adjusted repeatability Rn = …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 



3
为什么杰弗里斯先验被认为是非情报性的?
事先考虑杰弗瑞斯其中,其中我是Fisher信息。p(θ)∝|i(θ)|−−−−√p(θ)∝|i(θ)|p(\theta) \propto \sqrt{|i(\theta)|}iii 我一直认为这个先验是无意义的先验,但是我从来没有见过为什么它没有信息的争论。毕竟,这不是一个恒定的先验,因此必须有其他一些论点。 我知道这不依赖于重新参数化,这将我带入下一个问题。Fisher信息的决定因素是否不依赖于重新参数化?因为Fisher信息绝对取决于问题的参数化。 谢谢。
27 bayesian  prior 



3
比其他分析更早进行特权分析的贝叶斯理由是什么?
背景和经验示例 我有两个研究;我进行了一个实验(研究1),然后进行了复制(研究2)。在研究1中,我发现了两个变量之间的相互作用。在研究2中,这种交互作用方向相同,但意义不大。以下是研究1模型的摘要: Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 5.75882 0.26368 21.840 < 2e-16 *** condSuppression -1.69598 0.34549 -4.909 1.94e-06 *** prej -0.01981 0.08474 -0.234 0.81542 condSuppression:prej 0.36342 0.11513 3.157 0.00185 ** 并研究2的模型: Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 5.24493 0.24459 21.444 <2e-16 *** prej 0.13817 0.07984 …
26 bayesian 

2
Dirichlet分布中的alpha到底是什么?
我对贝叶斯统计非常陌生,遇到了一种校正的相关度量SparCC,该度量在其算法的后端使用Dirichlet流程。我一直在尝试逐步了解算法,以真正理解正在发生的事情,但是我不确定alpha在Dirichlet分布中矢量参数的作用以及如何规范化alpha矢量参数? 该实现Python使用的是NumPy:https : //docs.scipy.org/doc/numpy/reference/generated/numpy.random.dirichlet.html 文档说: alpha:数组分布的参数(k维为k维样本)。 我的问题: 如何将alphas影响分布?; 如何alphas被标准化?和 当alphas不是整数时会发生什么? import numpy as np import pandas as pd import matplotlib.pyplot as plt # Reproducibility np.random.seed(0) # Integer values for alphas alphas = np.arange(10) # array([0, 1, 2, 3, 4, 5, 6, 7, 8, 9]) # Dirichlet Distribution dd = np.random.dirichlet(alphas) …

1
贝叶斯和EM之间的关系
我在某处读到,变分贝叶斯方法是EM算法的概括。确实,算法的迭代部分非常相似。为了测试EM算法是否是Variational Bayes的特殊版本,我尝试了以下方法: YYY是数据,是潜在变量的集合,是参数。在变分贝叶斯中,我们可以做一个近似,使得。当 s为简单,易于处理的分布。XXXΘΘ\ThetaP(X,Θ|Y)≈QX(X)QΘ(Θ)P(X,Θ|Y)≈QX(X)QΘ(Θ)P(X,\Theta|Y) \approx Q_X(X)Q_\Theta(\Theta)QQQ 由于EM算法找到了MAP点估计值,因此我认为,如果我使用Delta函数,则变分贝叶斯可以收敛到EM:。是通常在EM中完成的参数的第一个估计。Q1Θ(Θ)=δΘ1(Θ)QΘ1(Θ)=δΘ1(Θ)Q^1_\Theta(\Theta)=\delta_{\Theta^1}(\Theta)Θ1Θ1\Theta_1 当给出,,其最小化的KL发散由公式发现 上面的公式简化为,此步骤等效于Expectation步骤EM算法!Q1Θ(Θ)=δΘ1(Θ)QΘ1(Θ)=δΘ1(Θ)Q^1_\Theta(\Theta)=\delta_{\Theta^1}(\Theta)Q1X(X)QX1(X)Q^1_X(X)Q1X(X)=exp(EδΘ1[lnP(X,Y,Θ)])∫exp(EδΘ1[lnP(X,Y,Θ)])dXQX1(X)=exp⁡(EδΘ1[ln⁡P(X,Y,Θ)])∫exp⁡(EδΘ1[ln⁡P(X,Y,Θ)])dXQ^1_X(X)=\frac{\exp(E_{\delta_{\Theta^1}}[\ln P(X,Y,\Theta)])}{\int\exp(E_{\delta_{\Theta^1}}[\ln P(X,Y,\Theta)])dX}Q1X(X)=P(X|Θ1,Y)QX1(X)=P(X|Θ1,Y)Q^1_X(X)=P(X|\Theta^1,Y) 但是我不能将“最大化”步骤作为此步骤的延续。在下一步中,我们需要计算,根据变分贝叶斯迭代规则,这是:Q2Θ(Θ)QΘ2(Θ)Q^2_\Theta(\Theta) Q2Θ(Θ)=exp(EP(X|Θ1,Y)[lnP(X,Y,Θ)])∫exp(EP(X|Θ1,Y)[lnP(X,Y,Θ)])dΘQΘ2(Θ)=exp⁡(EP(X|Θ1,Y)[ln⁡P(X,Y,Θ)])∫exp⁡(EP(X|Θ1,Y)[ln⁡P(X,Y,Θ)])dΘQ^2_\Theta(\Theta)=\frac{\exp(E_{P(X|\Theta^1,Y)}[\ln P(X,Y,\Theta)])}{\int\exp(E_{P(X|\Theta^1,Y)}[\ln P(X,Y,\Theta)])d\Theta} VB和EM算法是否真的以这种方式连接?我们如何得出EM作为变分贝叶斯的特例,我的方法是正确的吗?

3
贝叶斯先验是否与大样本量无关?
在执行贝叶斯推理时,我们通过最大化似然函数以及关于参数的先验来进行操作。因为对数似然比更方便,所以我们使用MCMC 有效地最大化或以其他方式生成后验分布(使用pdf每个参数的先验和每个数据点的可能性)。∑ln(prior)+∑ln(likelihood)∑ln⁡(事前)+∑ln⁡(可能性)\sum \ln (\text{prior}) + \sum \ln (\text{likelihood}) 如果我们有大量数据,那么通过简单的数学方法,可能会淹没先验提供的任何信息。最终,这是好的,这是设计使然。我们知道,后验将收敛到具有更多数据的可能性,因为它应该这样做。 对于共轭先验定义的问题,这甚至是完全可以证明的。 有没有一种方法可以确定何时先验对给定的似然函数和样本量不重要?
26 bayesian  prior 

5
维基百科关于可能性的条目似乎模棱两可
我有一个关于“条件概率”和“可能性”的简单问题。(我已经在这里调查了这个问题,但无济于事。) 它从可能性的Wikipedia 页面开始。他们说: 的似然性的一组参数值中的,,给出的结果,等于所给出的那些参数值的那些观察到的结果的概率,也就是Xθθ\thetaxxx 大号(θ|X)=P(X | θ )L(θ∣x)=P(x∣θ)\mathcal{L}(\theta \mid x) = P(x \mid \theta) 大!因此,用英语,我这样读:“在给定数据X = x(左侧)的情况下,参数等于theta的可能性等于在给定参数的情况下数据X等于x的可能性。等于theta”。(粗体是我的重点)。 但是,在同一页面上,不少于3行,然后Wikipedia条目继续说: 假设是一个随机变量,其随机变量 p取决于参数\ theta。然后功能XXXpppθθ\theta 大号(θ|X)= pθ(x )= Pθ(X= x ),L(θ∣x)=pθ(x)=Pθ(X=x),\mathcal{L}(\theta \mid x) = p_\theta (x) = P_\theta (X=x), \, 被认为是\ theta的函数的函数θθ\theta被称为似然函数(\ theta的似然函数θθ\theta,给定随机变量 X的结果x)。有时,参数值\ theta的X值x的概率表示为P(X = x \ mid \ theta);通常写为P(X = x; \ …

7
结合不同来源的概率/信息
可以说我有三个独立的消息源,每个消息源都对明天的天气做出了预测。第一个说明天下雨的概率是0,第二个说明天下雨的概率是1,最后一个说明天下雨的概率是50%。我想知道给出该信息的总概率。 如果将乘法定理应用于独立事件,我将得到0,这似乎是不正确的。如果所有来源都是独立的,为什么不能将这三个数相乘?当我获得新信息时,是否有贝叶斯方法来更新先验信息? 注意:这不是作业,是我一直在考虑的事情。

1
高斯模型中最小二乘和MLE之间的等价关系
我是机器学习的新手,并且正在尝试自己学习。最近,我正在阅读一些讲义,并提出了一个基本问题。 幻灯片13表示“最小二乘估计与高斯模型下的最大似然估计相同”。看来这很简单,但我看不到这一点。有人可以解释一下这是怎么回事吗?我对看数学感兴趣。 稍后我将尝试查看Ridge和Lasso回归的概率观点,因此,如果有任何建议对我有帮助,也将不胜感激。


By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.