Questions tagged «inference»

从样本数据得出有关种群参数的结论。参见https://en.wikipedia.org/wiki/Inference和https://en.wikipedia.org/wiki/Statistical_inference

3
您将如何在R中进行贝叶斯ANOVA和回归分析?[关闭]
关闭。这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新问题,使它成为交叉验证的主题。 2年前关闭。 我有一个相当简单的数据集,由一个自变量,一个因变量和一个分类变量组成。我在运行诸如aov()和的频繁测试方面有丰富的经验lm(),但是我无法弄清楚如何在R中执行它们的贝叶斯等效项。 我想对前两个变量进行贝叶斯线性回归,并使用分类变量作为分组进行方差的贝叶斯分析,但是我找不到任何简单的示例来说明如何使用R做到这一点。都?此外,贝叶斯分析所创建的输出统计信息到底是什么,它们表示什么? 我对统计数据不是很精通,但是共识似乎是,现在认为使用带有p值的基本测试有些误入歧途,我正在努力跟上。问候。

2
贝叶斯分析的最佳软件包
我想知道你们推荐哪种软件统计软件包来执行贝叶斯推理。 例如,我知道您可以独立运行openBUGS或winBUGS,也可以从R调用它们。但是R也有几个自己的软件包(MCMCPack,BACCO)可以进行贝叶斯分析。 是否有人对R中的哪个贝叶斯统计软件包最好或其他替代方案(Matlab或Mathematica)有任何建议? 我要比较的主要功能是性能,易用性,稳定性和灵活性


6
MLE vs MAP估计,什么时候使用?
MLE =最大似然估计 MAP =最大后验 MLE是直观/天真的,因为它仅从给定参数(即似然函数)的观察概率开始,并尝试找到与观察最相符的参数。但是它没有考虑先验知识。 MAP似乎更合理,因为它确实考虑了贝叶斯规则中的先验知识。 这是一个相关的问题,但答案并不彻底。 /signals/13174/differences-using-maximum-likelihood-or-maximum-a-posteriori-for-deconvolution-d 因此,我认为MAP更好。那正确吗?那我什么时候该使用呢?

2
参数可估计性问题
令和为四个随机变量,使得,其中是未知参数。还假设,那哪个是真的?Y1,Y2,Y3Y1,Y2,Y3Y_1,Y_2,Y_3Y4Y4Y_4E(Y1)=θ1−θ3; E(Y2)=θ1+θ2−θ3; E(Y3)=θ1−θ3; E(Y4)=θ1−θ2−θ3E(Y1)=θ1−θ3; E(Y2)=θ1+θ2−θ3; E(Y3)=θ1−θ3; E(Y4)=θ1−θ2−θ3E(Y_1)=\theta_1-\theta_3;\space\space E(Y_2)=\theta_1+\theta_2-\theta_3;\space\space E(Y_3)=\theta_1-\theta_3;\space\space E(Y_4)=\theta_1-\theta_2-\theta_3θ1,θ2,θ3θ1,θ2,θ3\theta_1,\theta_2,\theta_3Var(Yi)=σ2Var(Yi)=σ2Var(Y_i)=\sigma^2i=1,2,3,4.i=1,2,3,4.i=1,2,3,4. :是可估计的。θ1,θ2,θ3θ1,θ2,θ3\theta_1,\theta_2,\theta_3 B.是可估计的。θ1+θ3θ1+θ3\theta_1+\theta_3 C.是可估计的,是的最佳线性无偏估计。θ1−θ3θ1−θ3\theta_1-\theta_312(Y1+Y3)12(Y1+Y3)\dfrac{1}{2}(Y_1+Y_3)θ1−θ3θ1−θ3\theta_1-\theta_3 D.是可估计的。θ2θ2\theta_2 给出的答案是C,它对我来说看起来很奇怪(因为我得到了D)。 为什么我得到D?由于。E(Y2−Y4)=2θ2E(Y2−Y4)=2θ2E(Y_2-Y_4)=2\theta_2 为什么我不明白C可以作为答案?好的,我可以看到是的无偏估计量,并且其方差小于。 θ1-θ3ÿ1+ÿ3Y1+Y2+Y3+Y44Y1+Y2+Y3+Y44\dfrac{Y_1+Y_2+Y_3+Y_4}{4}θ1−θ3θ1−θ3\theta_1-\theta_3Y1+Y32Y1+Y32\dfrac{Y_1+Y_3}{2} 请告诉我我在哪里做错了。 也发布在这里:https : //math.stackexchange.com/questions/2568894/a-problem-on-estimability-of-parameters

1
实践中仍在使用常客性条件推理吗?
我最近回顾了南希·里德,巴恩多夫-尼尔森,理查德·考克斯以及是的罗纳德·费舍尔的一些旧论文,这些论文涉及惯常主义范式中的“条件推论”概念,这似乎意味着推论仅基于考虑样本空间的“相关子集”,而不是整个样本空间。 作为一个关键的例子,如果您还考虑样本的变异系数(称为辅助统计量),则可以改善基于t统计量的置信区间(Goutis&Casella,1992)。 作为经常使用基于似然性推断的人,我假设当我形成一个渐近%置信区间时,我正在执行(近似)条件推断,因为似然性取决于观察样本。αα\alpha 我的问题是,除了条件逻辑回归之外,我还没有看到在推断之前对辅助统计条件进行调整的想法的使用。这种类型的推理是仅限于指数族,还是现在使用其他名称,所以它似乎仅是有限的。 我发现最近的一篇文章(Spanos,2011年)似乎对有条件推论(即无礼)所采用的方法产生了严重怀疑。取而代之的是,它提出了一个非常明智且数学上不那么费解的建议,即可以通过删节通常的无条件采样分布来解决“不规则”情况下的参数推断(其中分布的支持由参数确定)。 弗雷泽(Fraser(2004))很好地证明了条件性,但我仍然感到,要对复杂的情况实际应用条件推理,不仅需要运气和独创性,而且肯定比调用卡方更为复杂。 “近似”条件推断的似然比统计量的近似。 威尔士(2011,第163页)可能已经回答了我的问题(3.9.5,3.9.6)。 他们指出了巴苏的著名结果(巴苏定理),其中可能有不止一个辅助统计量,这是关于哪个“相关子集” 最相关的问题。更糟糕的是,它们显示了两个示例,这些示例说明即使您具有唯一的辅助统计信息,也无法消除其他相关子集的存在。 他们继续得出结论,只有贝叶斯方法(或与之等效的方法)才能避免此问题,从而实现无条件的条件推断。 参考文献: ttt Spanos,阿里斯。“重新审视韦尔奇统一模型:有条件推论的情况吗?”。 统计科学进展与应用 5(2011):33-52。 DAS弗雷泽(Fraser),“辅助条件和条件推断”。 统计科学 19.2(2004):333-369。 威尔士,艾伦·H 。统计推论。卷 916.约翰·威利父子,2011年。

3
当参数向量为p维时,为什么在最小二乘回归中踪迹为?
在模型y=Xβ+ϵy=Xβ+ϵ{y} = X \beta + \epsilon,我们可以使用正态方程估算ββ\beta: β^=(X′X)−1X′y,β^=(X′X)−1X′y,\hat{\beta} = (X'X)^{-1}X'y,我们可以得到y^=Xβ^.y^=Xβ^.\hat{y} = X \hat{\beta}. 残差向量可通过 ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,\hat{\epsilon} = y - X \hat{\beta} = (I - X (X'X)^{-1} X') y = Q y = Q (X \beta + \epsilon) = Q \epsilon, 其中Q=I−X(X′X)−1X′.Q=I−X(X′X)−1X′.Q = I - X (X'X)^{-1} X'. 我的问题是如何得出\ textrm {tr}(Q)= n-p的结论tr(Q)=n−p.tr(Q)=n−p.\textrm{tr}(Q) = …

1
观测值不独立时的无效推论
我在基本统计中了解到,对于一般的线性模型而言,要使推论有效,观察必须是独立的。发生聚类时,除非考虑到这一点,否则独立性不再可能导致无效的推理。解决这种聚类的一种方法是使用混合模型。我想找到一个示例数据集,无论是否模拟,都可以清楚地说明这一点。我尝试使用UCLA网站上的示例数据集之一来分析聚类数据 > require(foreign) > require(lme4) > dt <- read.dta("http://www.ats.ucla.edu/stat/stata/seminars/svy_stata_intro/srs.dta") > m1 <- lm(api00~growth+emer+yr_rnd, data=dt) > summary(m1) Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 740.3981 11.5522 64.092 <2e-16 *** growth -0.1027 0.2112 -0.486 0.6271 emer -5.4449 0.5395 -10.092 <2e-16 *** yr_rnd -51.0757 19.9136 -2.565 0.0108 * > m2 <- lmer(api00~growth+emer+yr_rnd+(1|dnum), …



1
似然比和贝叶斯模型比较是否可以为零假设检验提供更好且足够的替代方案?
为了回应越来越多的统计学家和研究人员批评将零假设检验(NHT)用于科学作为一种累积努力的做法,美国心理学会统计推断工作组避免了彻底禁止NHT的禁令,而是建议研究人员除了从NHT导出的p值外,还报告效果大小。 但是,效果大小在整个研究中不容易累积。元分析方法可以累积效应量的分布,但是效应量通常以原始效应量与给定实验数据中无法解释的“噪声”之比来计算,这意味着效应量的分布不仅受各个研究之间的原始效果差异很大,而且各个研究之间的噪音表现也存在差异。 相比之下,效应强度的替代度量,似然比既可以在逐项研究的基础上进行直观的解释,又可以轻松地在各个研究中汇总以进行荟萃分析。在每项研究中,似然度代表包含给定效果的模型相对于不包含效果的模型的证据权重,通常可以报告为例如“计算X效果的似然比”揭示了该效应的证据是其无效证据的8倍。” 此外,似然比还允许直观表示无效结果的强度,因为低于1的似然比表示赞成采用无效的情况,取该值的倒数表示无效对效果的证据权重。值得注意的是 似然比在数学上表示为两个模型的无法解释的方差之比,其差异仅在于效应所解释的方差,因此在概念上与效应大小没有太大的偏差。另一方面,荟萃分析似然比的计算代表了整个研究中某项效应的证据权重,这仅仅是取各个研究中似然比的乘积即可。 因此,我认为,对于寻求建立有利于效应/模型的总体证据程度的科学而言,似然比是可行的方法。 在更细微的情况下,模型仅在效果的特定大小上才是可区分的,在这种情况下,我们认为区间的某种表示形式(我们认为数据与效果参数值一致)可能是首选的。确实,APA工作组还建议报告置信区间,可以将其用于此目的,但是我怀疑这也是一种考虑不周的方法。 令人遗憾的是,置信区间经常被误解(被学生和研究人员都误解了)。我还担心它们在NHT中的使用能力(通过评估CI中是否包含零)将只会进一步推论NHT的灭绝。 相反,当理论只能通过效应的大小来区分时,我建议贝叶斯方法会更合适,因为每种效应的先验分布由每个模型分别定义,然后比较所得的后验分布。 这种方法用似然比替换p值,影响大小和置信区间,并且在必要时用贝叶斯模型比较是否似乎足够?是否错过了此处所针对的替代方案所提供的某些必要的推论功能?

2
用于学习统计数据,练习(带有解决方案)的在线资源?
我目前在我的大学担任统计学入门课程(面向医学生)的助教。 在离线状态下,有很多书籍可以帮助老师。但是,我有兴趣知道的是,您是否可以引导我进入提供统计活动(包括解决方案)的任何(良好)资源,这些资源可以在线获取?(例如:教师注释)。 主题材料的范围可以在描述性统计,概率和参数/非参数统计推断之间。

2
没有UMP时如何定义拒绝区域?
考虑线性回归模型 y=Xβ+uy=Xβ+u\mathbf{y}=\mathbf{X\beta}+\mathbf{u}, u∼N(0,σ2I)u∼N(0,σ2I)\mathbf{u}\sim N(\mathbf{0},\sigma^2\mathbf{I}), E(u∣X)=0E(u∣X)=0E(\mathbf{u}\mid\mathbf{X})=\mathbf{0}。 设与。ħ 1:σ 2 0 ≠ σ 2H0:σ20=σ2H0:σ02=σ2H_0: \sigma_0^2=\sigma^2H1:σ20≠σ2H1:σ02≠σ2H_1: \sigma_0^2\neq\sigma^2 我们可以推导出,其中。并且是灭者矩阵的典型表示法,其中是因变量在上回归了。ð我中号(X)=Ñ×ķ中号X中号XŶ= ÿ ÿ ÿXyTMXyσ2∼χ2(n−k)yTMXyσ2∼χ2(n−k)\frac{\mathbf{y}^T\mathbf{M_X}\mathbf{y}}{\sigma^2}\sim \chi^2(n-k)dim(X)=n×kdim(X)=n×kdim(\mathbf{X})=n\times kMXMX\mathbf{M_X}MXy=y^MXy=y^\mathbf{M_X}\mathbf{y}=\hat{\mathbf{y}}y^y^ \hat{\mathbf{y}}yy\mathbf{y}XX\mathbf{X} 我正在阅读的书指出: 之前,我曾问过应该使用什么标准来定义拒绝区域(RR),请参阅此问题的答案,主要的是选择使测试尽可能强大的RR。 在这种情况下,备选方案是双边复合假设,通常不需要UMP检验。而且,根据书中给出的答案,作者没有显示他们是否研究了RR的功能。尽管如此,他们还是选择了两尾RR。为什么会这样,因为该假设没有“单方面”确定RR? 编辑:此图像作为练习4.14的解决方案,在本书的解决方案手册中。

2
95%置信区间的公式
我在stats.stackexchange上进行了搜索和搜索,但是找不到用于为线性回归计算值的95%置信区间的公式。有人可以提供吗?R2R2R^2 更好的是,假设我在下面的R中运行了线性回归。如何使用R代码为R2R2R^2值计算95%的置信区间。 lm_mtcars <- lm(mpg ~ wt, mtcars)

1
通常,推理比进行预测难吗?
我的问题来自以下事实。我一直在阅读有关机器学习的文章,博客,讲座和书籍。我的印象是,机器学习从业人员似乎对统计学家/计量经济学所关心的许多事情都漠不关心。尤其是,机器学习从业者强调预测准确性胜于推理。 当我在Coursera上学习 Andrew Ng的机器学习时,便出现了这样一个例子。当他讨论简单线性模型时,他没有提及估计量的BLUE属性,也没有提到异方差如何“使”置信区间无效。相反,他专注于梯度下降实现和交叉验证/ ROC曲线的概念。我的计量经济学/统计学类未涵盖这些主题。 另一个例子发生在我参加Kaggle比赛时。我在读别人的代码和想法。很大一部分参与者只是将所有内容都放入了SVM /随机森林/ XGBoost中。 另一个例子是关于逐步模型选择。至少在在线和Kaggle上,该技术得到了广泛使用。许多经典的机器学习教科书也对此进行了介绍,例如《统计学习入门》。但是,根据这个答案(这很有说服力),逐步模型选择面临很多问题,尤其是当涉及到“发现真实模型”时。似乎只有两种可能性:机器学习从业者不知道逐步解决问题,或者机器学习从业者知道,但是他们不在乎。 所以这是我的问题: (总的来说)机器学习从业者专注于预测,因此不关心统计学家/经济学家关心的很多事情吗? 如果这是真的,那么背后的原因是什么呢?是因为在某种意义上推论更加困难吗? 在线上有大量关于机器学习(或预测)的材料。但是,如果我对学习推理感兴趣,可以从网上查阅哪些资源? 更新:我刚刚意识到“推断”一词可能意味着很多东西。我所说的“推论”是指诸如 做原因或造成?或更笼统地说,之间的因果关系是什么?Y Y X X 1,X 2,⋯ ,X nXXXÿÿYÿÿYXXXX1个,X2,⋯ ,XñX1个,X2,⋯,XñX_1,X_2,\cdots,X_n 既然“所有模型都错了”,那么我们的模型与真实模型有多“错”? 有了样本的信息,我们可以对总体说些什么?我们有多自信? 由于我非常有限的统计知识,我什至不确定这些问题是否属于统计领域。但是这些是机器学习从业者似乎并不关心的问题类型。也许统计学家也不在乎?我不知道。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.