Questions tagged «hypothesis-testing»

假设检验评估数据是否与给定假设不一致,而不是随机波动的影响。

5
“ p值”的正确拼写(大写,斜体,连字符)吗?
我意识到这是古怪而陈腐的,但是作为统计学之外的领域的研究人员,由于统计学方面的正规教育有限,我总是想知道我是否正确地编写了“ p值”。特别: “ p”应该大写吗? “ p”是否应该斜体显示?(或以数学字体显示在TeX中?) 在“ p”和“值”之间应该有连字符吗? 或者,根本没有“ p”值的“正确”写法,如果我只是在这些选项的某些排列中将“ p”放在“ value”旁边,那么任何理解都会理解我的意思吗?

6
如何测试两个连续变量是独立的?
假设我有一个样本根据和的联合分布。我如何检验和是独立的假设?X ÿ X ÿ(Xñ,Yñ),n = 1 .. N(Xn,Yn),n=1..N(X_n,Y_n), n=1..NXXXÿYYXXXÿYY 不对和的联合或边际分布定律(所有联合正态性中的最小者,因为在这种情况下,独立性等于)是相同的。ÿXXXÿYY000 没有对和之间可能关系的性质作任何假设; 它可能是非线性的,因此变量是不相关的()但高度相关()。Y r = 0 I = HXXXÿYYr = 0r=0r=0一世= 高I=HI=H 我可以看到两种方法: 对两个变量进行bin,并使用Fisher精确检验或G-test。 优点:使用完善的统计测试 缺点:取决于分档 估计依赖的和:(这是独立和和当它们完全确定对方)。Y I (X ; Y )XXXÿYY一世(X; ÿ)H(X,Y)I(X;Y)H(X,Y)\frac{I(X;Y)}{H(X,Y)}XY1000XXXÿYY1个11 优点:产生具有明确理论意义的数字 缺点:取决于近似熵的计算(即再次进行分箱) 这些方法有意义吗? 人们还使用其他哪些方法?

7
卡方总是单方面测试吗?
发表的文章(pdf)包含以下两个句子: 此外,误报可能是由于使用了不正确的规则或对统计检验知识的缺乏所致。例如,可以将ANOVA中的总df视为检验报告中的误差df ,或者研究人员可以将或检验的报告p值除以2,以获得片面的值,而 a的值或测试已经是一个单侧检验。χ 2 ˚F p p χ 2 ˚FFFFχ2χ2\chi^2FFFppppppχ2χ2\chi^2FFF 他们为什么这么说?卡方检验是一种双面检验。(我问过其中一位作者,但没有得到答复。) 我在俯视什么吗?

5
当样本“是”总体时的统计推断
想象一下,您必须报告每年参加给定考试的候选人人数。例如,由于目标人群的特殊性,很难推断观察到的成功百分比,例如,在更广泛的人群中。因此,您可能会认为这些数据代表了整个人口。 测试结果是否表明男性和女性的比例确实正确?由于您考虑的是总体(而不是样本),因此将观察到的比例与理论比例进行比较的测试是否看起来是正确的?

2
为什么频繁主义者假设检验偏向于拒绝具有足够大样本的零假设?
当我偶然发现这篇文章时,我只是在阅读有关贝叶斯因子的文章,这是一个完全不相关的问题 由于贝叶斯形式避免了模型选择偏差,评估了支持原假设的证据,包括模型不确定性,并且允许比较非嵌套模型,因此使用贝叶斯因子进行的假设检验比频繁假设检验更为稳健。具有相同的因变量)。同样,频繁性显着性检验偏向于拒绝具有足够大样本量的零假设。[重点添加] 在卡尔·弗里斯顿(Karl Friston)2012年在NeuroImage中的论文中,我已经看到过这种说法,他称其为经典推理的谬误。 我很难找到一个真正的教学方法来解释为什么这应该是正确的。具体来说,我想知道: 为什么会这样 如何防范 失败了,如何检测到它


3
对数转换的预测变量和/或响应的解释
我想知道是否仅对因变量(无论是因变量还是自变量)还是仅对自变量进行了对数转换,在解释上是否有所不同。 考虑以下情况 log(DV) = Intercept + B1*IV + Error 我可以将IV解释为百分比增长,但是当我拥有 log(DV) = Intercept + B1*log(IV) + Error 或当我有 DV = Intercept + B1*log(IV) + Error ?
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 

1
如何解释I型,II型和III型ANOVA和MANOVA?
我的主要问题是进行I型(顺序)方差分析时如何解释输出(系数,F,P)? 我的具体研究问题要复杂一些,因此我将把例子分成几部分。首先,如果我对蜘蛛密度(X1)对植物生长(Y1)的影响感兴趣,并且我在围墙内种植了幼苗并控制了蜘蛛密度,那么我可以使用简单的ANOVA或线性回归分析数据。然后,对于ANOVA使用I,II或III平方和(SS)都没关系。就我而言,我有5个密度级别的4个副本,因此可以将密度用作因子或连续变量。在这种情况下,我更喜欢将其解释为连续的独立(预测变量)变量。在RI中可以运行以下命令: lm1 <- lm(y1 ~ density, data = Ena) summary(lm1) anova(lm1) 运行方差分析功能对于以后的比较很有希望,因此请在这里忽略它的奇怪之处。输出为: Response: y1 Df Sum Sq Mean Sq F value Pr(>F) density 1 0.48357 0.48357 3.4279 0.08058 . Residuals 18 2.53920 0.14107 现在,让我怀疑我无法控制的土壤中无机氮的起始水平可能也显着影响了植物的生长。我对这种效果并不特别感兴趣,但是想潜在地解释它引起的变化。确实,我的主要兴趣在于蜘蛛密度的影响(假设:蜘蛛密度的增加会导致植物生长的增加-大概是通过减少草食性昆虫引起的,但我只测试这种作用而不是机理)。我可以将无机氮的影响添加到我的分析中。 出于我的问题,让我们假设我测试了交互作用密度* inorganicN,并且它并不重要,因此我将其从分析中删除并运行以下主要效果: > lm2 <- lm(y1 ~ density + inorganicN, data = Ena) > anova(lm2) …

6
分布之间的Kolmogorov距离的动机
有许多方法可以测量两个概率分布的相似程度。在不同的圈子中流行的方法有: Kolmogorov距离:分布函数之间的超距离; 坎托罗维奇-鲁宾斯坦距离:两个具有Lipschitz常数的函数的期望值之间的最大差,也就是分布函数之间的L 1距离;1个1个1大号1个大号1个L^1 bounded-Lipschitz距离:与KR距离一样,但函数也必须具有最大绝对值。1个1个1 这些有不同的优点和缺点。实际上,只有3.意义上的收敛才真正对应于分布的收敛。一般而言,在1.或2.的意义上的收敛性要强一些。(特别是如果的概率为1,则Xn的分布收敛为0,但不在Kolmogorov距离内收敛。但是,如果极限分布是连续的,则不会发生这种病理情况。)Xñ= 1ñXñ=1个ñX_n=\frac{1}{n}1个1个1XñXñX_n000 从基本概率或测度理论的角度来看,1.很自然,因为它比较了某个集合中的概率。另一方面,更复杂的概率视角倾向于更多地关注期望而不是概率。同样,从功能分析的角度来看,基于二元性和某些功能空间的距离(如2.或3.)非常吸引人,因为有大量的数学工具可用于处理此类事物。 但是,我的印象(如果我错了,请纠正我!)是在统计中,Kolmogorov距离是衡量分布相似度的通常首选方法。我可以猜出一个原因:如果其中一个分布是在有限支持下离散的,特别是如果它是一些实际数据的分布,那么到模型分布的Kolmogorov距离就很容易计算。(实际上,KR距离的计算较难,BL距离实际上是不可能的。) 因此,我的问题(最后)是,出于统计目的,是否还有其他原因(无论是实践原因还是理论原因)都倾向于使用Kolmogorov距离(或其他距离)?

4
为什么统计学家说不重要的结果意味着“您不能拒绝零”而不是接受零假设?
像两个样本t检验一样,传统的统计检验集中在试图消除以下假设:两个独立样本的函数之间没有差异。然后,我们选择一个置信度,并说如果均值差超过95%,我们可以拒绝原假设。如果不是,我们“不能拒绝原假设”。这似乎意味着我们也不能接受它。这是否意味着我们不确定原假设是否成立? 现在,我想设计一个假设是两个样本的函数相同的检验(这与假设两个样本不同的传统统计检验相反)。因此,我的原假设是两个样本不同。我应该如何设计这样的测试?简单地说,如果p值小于5%,我们可以接受没有显着差异的假设吗?

3
合并p值时,为什么不平均呢?
我最近了解了费舍尔组合p值的方法。这是基于该空下p值遵循均匀分布,并且该事实 ,我认为是天才。但是我的问题是为什么要走这种令人费解的方式?为什么不使用p值的均值并使用中心极限定理(这有什么问题)?或中位数?我试图了解RA费舍尔这个宏伟计划背后的天才。− 2 ∑我= 1ñ日志X一世〜χ2(2 n ), 给定 X〜UNIF (0 ,1 )−2∑i=1nlog⁡Xi∼χ2(2n), given X∼Unif(0,1)-2\sum_{i=1}^n{\log X_i} \sim \chi^2(2n), \text{ given } X \sim \text{Unif}(0,1)

5
为什么多重比较是一个问题?
我发现很难理解多重比较到底是什么问题。举个简单的比喻,可以说一个会做出很多决定的人会犯很多错误。因此,应采用非常保守的预防措施,例如Bonferroni校正,以使此人犯任何错误的可能性尽可能低。 但是,为什么我们要关心一个人在他/她所做的所有决定中是否犯了任何错误,而不是错误的决定所占的百分比? 让我尝试解释一下让我困惑的另一个类比。假设有两名法官,一名是60岁,另一名是20岁。然后Bonferroni更正告诉20岁的人在决定处决时要尽可能保守,因为他将担任法官工作很多年,将做出更多决定,因此他必须谨慎。但是,一个60岁的老人可能很快就会退休,做出的决定更少,因此与另一个老人相比,他可能会更加粗心。但实际上,无论他们做出的决定总数是多少,两位法官都应同样谨慎或保守。我认为这种类比或多或少地转化为应用Bonferroni校正的实际问题,我发现这与直觉相反。

3
从两个不同的回归测试系数相等
这似乎是一个基本问题,但是我只是意识到我实际上不知道如何从两个不同的回归中检验系数的相等性。谁能对此有所启发? 更正式地说,假设我运行以下两个回归: 和 其中表示回归的设计矩阵,表示回归的系数向量。请注意,和可能存在很大差异,具有不同的尺寸等。例如,我对是否感兴趣。y1=X1β1+ϵ1y1=X1β1+ϵ1 y_1 = X_1\beta_1 + \epsilon_1 y2=X2β2+ϵ2y2=X2β2+ϵ2 y_2 = X_2\beta_2 + \epsilon_2 XiXiX_iiiiβiβi\beta_iiiiX1X1X_1X2X2X_2β^11≠β^21β^11≠β^21\hat\beta_{11} \neq \hat\beta_{21} 如果这些来自相同的回归,那将是微不足道的。但是由于它们来自不同的人,所以我不确定该怎么做。有没有人有想法或可以给我一些建议? 我的问题的细节是:我的第一个直觉是看置信区间,如果它们重叠,那么我会说它们本质上是相同的。但是,此过程未附带正确的测试量(例如,每个单独的置信区间的,但是共同查看它们的概率将不同)。我的第二个直觉是进行正常的t检验。也就是说,拿α=0.05α=0.05\alpha=0.05 β11−β21sd(β11)β11−β21sd(β11) \frac{\beta_{11}-\beta_{21}}{sd(\beta_{11})} 其中被用作我的原假设的值。但是,这没有考虑的估计不确定性,答案可能取决于回归的顺序(我将其称为1和2)。β21β21\beta_{21}β21β21\beta_{21} 我的第三个想法是像在标准测试中那样,对来自同一回归的两个系数是否相等进行测试,即 β11−β21sd(β11−β21)β11−β21sd(β11−β21) \frac{\beta_{11}-\beta_{21}}{sd(\beta_{11}-\beta_{21})} 由于两者均来自不同的回归,因此出现了复杂性。注意 Var(β11−β21)=Var(β11)+Var(β21)−2Cov(β11,β21)Var(β11−β21)=Var(β11)+Var(β21)−2Cov(β11,β21) Var(\beta_{11}-\beta_{21}) = Var(\beta_{11}) + Var(\beta_{21}) -2 Cov(\beta_{11},\beta_{21}) 但由于它们来自不同的回归,我如何获得?Cov(β11,β21)Cov(β11,β21)Cov(\beta_{11},\beta_{21}) 这导致我在这里提出这个问题。这必须是标准程序/标准测试,但我发现没有任何与该问题足够相似的东西。因此,如果有人可以指出正确的程序,我将不胜感激!



By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.