Questions tagged «confidence-interval»

置信区间是一个以置信度覆盖未知参数的区间。置信区间是一个经常性的概念。它们经常与可靠的时间间隔混淆,后者是贝叶斯模型。 (1α)%

2
在第一个实验的95%置信区间内,重复实验的哪个比例的效应大小?
让我们坚持理想的情况,使用随机抽样,高斯总体,均等方差,无P黑客攻击等。 步骤1.您运行一个实验,说比较两个样本均值,然后为这两个总体均值之间的差异计算95%的置信区间。 第2步。您进行了更多的实验(数千个)。由于随机抽样,平均值之间的差异因实验而异。 问题:步骤2中的实验收集所得的均值之间的差异的哪一部分位于步骤1的置信区间内? 那无法回答。这完全取决于步骤1中发生的情况。如果步骤1中的实验非常不典型,则该问题的答案可能非常低。 因此,想象两个步骤都重复了很多次(步骤2重复了很多次)。我认为,现在应该有可能对重复实验的平均比例有一个期望,该效应大小在第一次实验的95%置信区间内。 似乎需要了解这些问题的答案,以评估研究的可重复性,这是一个非常热门的领域。

2
置信椭圆的真实含义
阅读有关95%置信椭圆的真实含义的信息,我倾向于碰到两种解释: 包含95%数据的椭圆 不是上面的,而是解释数据差异的椭圆。我不确定我是否理解正确,但是它们似乎意味着,如果有新的数据点出现,则新的方差有95%的机会会保留在椭圆中。 你能阐明一点吗?

1
如何为ACF函数计算置信区间?
例如,在R中,如果调用该acf()函数,则默认情况下会绘制相关图,并绘制95%的置信区间。查看代码,如果调用plot(acf_object, ci.type="white"),您将看到: qnorm((1 + ci)/2)/sqrt(x$n.used) 作为白噪声类型的上限。有人可以解释这种方法背后的理论吗?为什么我们得到的qnorm为1 + 0.95,然后除以2,然后除以观察数?

3
通过逻辑回归生成比值比置信区间的不同方法
我正在研究如何根据逻辑回归中获得的系数为比值比构建95%的置信区间。因此,考虑逻辑回归模型, log(p1−p)=α+βxlog⁡(p1−p)=α+βx \log\left(\frac{p}{1 - p}\right) = \alpha + \beta x \newcommand{\var}{\rm Var} \newcommand{\se}{\rm SE} 这样,对于对照组,x=0x=0x = 0,对于病例组,x=1x=1x = 1。 我已经读过,最简单的方法是为\ beta构造95%CI,ββ\beta然后我们应用指数函数,即 β^±1.96×SE(β^)→exp{β^±1.96×SE(β^)}β^±1.96×SE(β^)→exp⁡{β^±1.96×SE(β^)} \hat{\beta} \pm 1.96\times \se(\hat{\beta}) \rightarrow \exp\{\hat{\beta} \pm 1.96\times \se(\hat{\beta})\} 我的问题是: 证明该程序合理的理论原因是什么?我知道odds ratio=exp{β}odds ratio=exp⁡{β}\mbox{odds ratio} = \exp\{\beta\}并且最大似然估计是不变的。但是,我不知道这些元素之间的联系。 增量法是否应该产生与先前步骤相同的95%置信区间?使用增量法 exp{β^}∼˙N(β, exp{β}2Var(β^))exp⁡{β^}∼˙N(β, exp⁡{β}2Var(β^))\exp\{\hat{\beta}\} \dot{\sim} N(\beta,\ \exp\{\beta\}^2 \var(\hat{\beta})) 然后, exp{β^}±1.96×exp{β}2Var(β^)−−−−−−−−−−−−√exp⁡{β^}±1.96×exp⁡{β}2Var(β^)\exp\{\hat{\beta}\} \pm 1.96\times …

2
置信区间实际上是否可以衡量参数估计的不确定性?
我正在阅读统计学家威廉·布里格斯(William Briggs)的博客文章,以下说法至少使我感兴趣。 你是怎么做的? 什么是置信区间?当然,这是一个方程式,它将为您提供数据间隔。旨在提供对参数估计值不确定性的度量。现在,严格按照频率论者的理论(甚至可以假设它是真实的),您可以说的关于现有CI的唯一一件事就是参数的真实值位于其中或不存在。这是重言式,因此始终如此。因此,CI根本无法提供不确定性的度量:实际上,计算不确定性是无用的。 链接:http://wmbriggs.com/post/3169/

3
如何选择置信度?
我经常使用90%的置信度,因为它比95%或99%具有更大的不确定性。 但是,关于如何选择正确的置信度水平有任何指导原则吗?还是不同领域使用的置信度准则? 此外,在解释和显示置信度时,是否有任何指南将数字转换为语言?例如,诸如针对Pearson's r的指南(编辑:这些描述适用于社会科学): http://faculty.quinnipiac.edu/libarts/polsci/Statistics.html 更新资料 感谢您下面的回答。他们都很乐于助人,有见地和有启发性。 此外,以下是一些不错的文章,这些文章是我在研究此问题时遇到的有关选择重要性级别(基本上是同一问题)的文章。他们验证以下答案中的内容。 “ 0.05的显着性意义是什么?” http://www.p-value.info/2013/01/whats-significance-of-005-significance_6.html “关于.05级统计意义的起源” http://www.radford.edu/~jaspelme/611/Spring-2007/Cowles-n-Davis_Am-Psyc_orignis-of-05-level.pdf “科学方法:统计错误” http://www.nature.com/news/scientific-method-statistical-errors-1.14700

1
为什么不总是使用引导CI?
我想知道自举CI(以及Bca中的BCa)对正态分布数据的性能如何。似乎有很多工作要检查它们在各种类型的分布上的性能,但是在正态分布的数据上找不到任何东西。由于首先学习似乎很显然,所以我认为论文太旧了。 我使用R引导程序包进行了一些蒙特卡洛仿真,发现引导CI与精确的CI一致,尽管对于小样本(N <20),它们倾向于比较宽松(较小的CI)。对于足够大的样本,它们基本上是相同的。 这使我想知道是否有充分的理由不总是使用引导程序。鉴于评估分布是否正常的难度很大,并且存在许多陷阱,因此,不管分布如何,都不决定和报告引导配置项似乎是合理的。我了解不系统地使用非参数测试的动机,因为它们的功能较少,但是我的模拟告诉我,引导CI并非如此。它们甚至更小。 让我感到困扰的一个类似问题是,为什么不总是使用中位数作为集中趋势的度量。人们通常建议使用它来表征非正态分布的数据,但是由于中位数与正态分布数据的平均值相同,为什么要加以区别?如果我们可以摆脱确定分布是否正常的过程,这似乎是非常有益的。 我很好奇您对这些问题的想法,以及它们是否曾经被讨论过。参考将不胜感激。 谢谢! 皮埃尔

5
如何在大量数据点中进行值的插补?
我的数据集非常大,大约缺少5%的随机值。这些变量相互关联。以下示例R数据集只是一个具有虚拟相关数据的玩具示例。 set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, sep ="") rownames(xmat) <- paste("sample", 1:200, sep = "") #M variables are correlated N <- 2000000*0.05 # 5% random missing values inds <- round ( runif(N, 1, length(xmat)) …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

2
我们可以在预测间隔内做出概率陈述吗?
我已经阅读了该站点上有关置信区间和预测区间解释的许多精彩讨论,但是其中一个概念仍然有些令人费解: 考虑OLS框架,我们已经获得了拟合模型。给我们一个并要求预测它的响应。我们计算,作为奖励,我们还围绕我们的预测提供了95%的预测间隔,从而获得了线性模型中预测极限的公式。我们将此预测间隔称为PI。y^=Xβ^y^=Xβ^\hat y = X\hat\betax∗x∗x^*x∗Tβ^x∗Tβ^x^{*T}\hat\beta 现在,以下哪个(或两个都不是)对PI的正确解释是正确的? 特别是对于,位于PI内的可能性为95%。x∗x∗x^*y(x∗)y(x∗)y(x^*) 如果给我们大量的 s,则此计算PI的过程将覆盖95%的真实响应。xxx 从线性回归预测间隔中的 @gung的措辞来看,似乎前者是正确的(尽管我很可能会误解。)解释1对我来说似乎是违反直觉的(在某种意义上,我们是从频繁分析中得出贝叶斯结论的)。如果它是正确的,是不是因为我们预测实现了的随机变量与估计一个参数? (编辑)奖金问题:假设我们知道真正的是什么,即生成数据的过程,那么我们可以讨论任何特定预测的概率,因为我们只是查看吗?ββ\betaϵϵ\epsilon 我对此的最新尝试:我们可以将预测间隔“概念上分解”(非常宽松地使用)分为两部分:(A)围绕预测均值响应的置信区间,以及(B)只是分位数的间隔集合误差项的范围。(B)我们可以在知道真实的预测均值的前提下做出概率陈述,但总体而言,我们只能将预测区间视为围绕预测值的频繁CI。这有点正确吗?

1
非数学家的Clopper-Pearson
我想知道是否有人可以向我解释Clopper-Pearson CI之外的直觉。 据我所知,每个配置项都包含一个差异。但是,对于比例,即使我的比例是0或1(0%或100%),也可以计算Clopper-Pearson CI。我尝试查看这些公式,但我知道它具有二项式分布的百分位数,而且我知道查找CI涉及迭代,但是我想知道是否有人可以用“简单的单词”或最少的数学来解释逻辑和有理数?

2
如何在多个插补数据集中合并自举的p值?
我担心的问题是,我想从乘归(MI)数据中引导p值来估计,但是我不清楚如何在MI集合中组合p值。θθ\theta 对于MI数据集,获得估计总方差的标准方法使用Rubin规则。有关合并MI数据集的评论,请参见此处。总方差的平方根用作的标准误差估计。但是,对于某些估计量,总方差没有已知的闭合形式,或者采样分布不正常。然后,统计量可能不是t分布的,甚至不是渐近的。θ / 小号ë (θ )θθ\thetaθ / 塞e (θ )θ/se(θ){\theta}/{se(\theta)} 因此,在完整数据的情况下,即使采样分布不是正态且其闭合形式未知,一种替代方法是引导统计信息以找到方差,p值和置信区间。在MI的情况下,有两个选择: 跨MI数据集合并自举差异 跨MI数据集合并p值或置信范围 然后,第一种选择将再次使用鲁宾规则。但是,如果具有非正态采样分布,则我认为这是有问题的。在这种情况下(或更一般而言,在所有情况下),可以直接使用自举p值。但是,在MI的情况下,这将导致多个p值或置信区间,需要将其跨MI数据集合并。θθ\theta 所以我的问题是:如何在多个估算数据集之间合并多个自举p值(或置信区间)? 我欢迎任何有关如何进行的建议,谢谢。

1
通过对相关观测值进行自举计算置信区间
如果观测值是iid,则标准形式的引导程序可用于计算估计统计量的置信区间。I.Visser 等。在“ 隐藏的马尔可夫模型参数的置信区间 ”中,使用了参数引导程序来计算HMM参数的CI。但是,当我们在观察序列上拟合HMM时,我们已经假设观察是相关的(与混合模型相反)。 我有两个问题: iid假设与引导程序有什么关系? 我们可以忽略参数引导程序中的iid要求吗? Visser 等。方法简述如下: 假设我们有一个观察序列是通过对HMM进行采样得到的,该HMM具有一组真实的但未知的参数。Y=o1,o2,...,onY=o1,o2,...,onY=o_1,o_2,...,o_nθ=θ1,θ2,...,θlθ=θ1,θ2,...,θl\theta=\theta_1,\theta_2,...,\theta_l 可以使用EM算法估算参数:θ^=θ^1,θ^2,...,θ^lθ^=θ^1,θ^2,...,θ^l\hat{\theta}=\hat{\theta}_1,\hat{\theta}_2,...,\hat{\theta}_l 使用估计的HMM生成大小为的引导程序样本:nnnY∗=o∗1,o∗2,...,o∗nY∗=o1∗,o2∗,...,on∗Y^*=o^*_1,o^*_2,...,o^*_n 根据引导程序样本估计HMM的参数:θ^∗=θ^∗1,θ^∗2,...,θ^∗lθ^∗=θ^1∗,θ^2∗,...,θ^l∗\hat{\theta}^*=\hat{\theta}^*_1,\hat{\theta}^*_2,...,\hat{\theta}^*_l 重复步骤3和4次(例如 = 1000),得出引导估计:乙乙θ *(1 ),θ *(2 ),。。。,θ *(乙)BBBBBBBBBθ^∗(1),θ^∗(2),...,θ^∗(B)θ^∗(1),θ^∗(2),...,θ^∗(B)\hat{\theta}^*(1),\hat{\theta}^*(2),...,\hat{\theta}^*(B) 使用引导程序估计中的分布来计算每个估计参数的CI 。 θ * 我θ^iθ^i\hat{\theta}_iθ^∗iθ^i∗\hat{\theta}^*_i 笔记(我的发现): 为了具有正确的覆盖范围,应该使用百分位数方法来计算CI(正态性是一个错误的假设)。 自举分布的偏差应得到纠正。意味着的分布均值应移至θ我θ^∗iθ^i∗\hat{\theta}^*_iθ^iθ^i\hat{\theta}_i

2
求蒙特卡罗模拟估计的精度
背景 我正在设计一个结合了一系列模型输出的蒙特卡洛模拟,并且我想确保该模拟将使我能够对模拟结果的概率和该概率估计的精度提出合理的要求。 模拟将发现从特定社区招募的陪审团将某被告定罪的可能性。这些是模拟步骤: 使用现有数据,通过对人口预测变量上的“初选投票”进行回归,生成逻辑概率模型(M)。 使用蒙特卡洛方法模拟M的 1,000个版本(即,模型参数的系数的1000个版本)。 选择模型的1,000个版本之一(M i)。 Empanel 1,000陪审团通过从具有特定人口特征分布的个人“社区”(C)中随机选择1,000组12个“陪审员”来进行。 使用M i确定性地计算每个陪审员第一次有罪表决的概率。 将每个“陪审员”的可能的票数投给确定票(根据票数是大于还是小于0-1之间的随机选择值)。 通过使用陪审团定罪的概率模型(从经验数据得出)来确定每个“陪审团”的“最终投票”,条件是陪审员在第一次投票中对定罪投票的比例。 存储有1000个陪审团(PG i)的有罪判决的比例。 对M的1,000个模拟版本中的每一个重复步骤3-8 。 计算PG的平均值,并将其报告为C中定罪概率的点估计 。 确定PG的2.5和97.5个百分位数,并将其报告为0.95置信区间。 我目前正在使用1,000名陪审员和1,000名陪审员的理论,即从概率分布(C或M版本的人口统计特征)中抽取1000次随机抽奖将填补该分布。 问题 这将使我能够准确地确定估计的精度吗?如果是这样,我需要为每个PG i计算覆盖几个陪审团,以涵盖C的概率分布(因此避免了选择偏差);我可以使用少于1000个吗? 非常感谢您的帮助!

2
我们可以使用比原始样本小的引导样本吗?
我想使用自举来估计N = 250个公司和T = 50个月的面板数据集中的估计参数的置信区间。由于使用卡尔曼滤波和复杂的非线性估计,参数的估计在计算上是昂贵的(几天的计算)。因此,即使是自举的基本方法,也无法从原始样本中抽取(替换)B(成百上千个)M = N = 250个公司的B个样本并估计参数B次是不可行的。 因此,我正在考虑对引导程序样本使用较小的M(例如10)(而不是N = 250的完整大小),并通过从原始公司替换而随机抽取,然后使用缩放模型参数的引导程序估计协方差矩阵(在上面的示例中为1/25)来计算在完整样本上估算的模型参数的协方差矩阵。1个ñ中号1NM\frac{1}{\frac{N}{M}} 然后,可以基于正态假设或基于经验的估计置信区间,对于较小的样本,可以使用类似的程序进行缩放(例如,缩小。1个ñ中号√1NM\frac{1}{\sqrt{\frac{N}{M}}} 这种解决方法有意义吗?有理论结果证明这一点吗?还有其他解决方案吗?

2
拟合曲线时,如何计算拟合参数的95%置信区间?
我正在为数据拟合曲线以提取一个参数。但是,我不确定该参数的确定性以及如何计算/表示其%置信区间。959595 假设数据集包含指数衰减的数据,我将曲线拟合到每个数据集。那么我要提取的信息就是指数。我知道的值ŧ和价值一,我没有兴趣的(那是来自人口变量,而不是过程我试着去模型)。bbbtttaaa 我使用非线性回归来拟合这些参数。但是,我不知道如何为任何方法计算%置信区间,因此也欢迎使用更广泛的答案。959595 f=a⋅e−btf=a⋅e−btf= a\cdot e^{-bt} 获得值后,如何计算其95%的置信区间?提前致谢!bbb959595

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.