Questions tagged «post-hoc»

“事后”是指在收集数据之后决定的分析,而不是“先验”。

2
事后测试之前是否需要进行全局测试?
我经常听到,只有在ANOVA本身很重要的情况下,才能使用ANOVA之后的事后测试。 但是,事后测试会调整以使I类全局错误率保持在5%,不是吗?ppp 那么,为什么我们首先需要进行全局测试? 如果我们不需要全局测试,那么“事后”术语是否正确? 还是有多种事后测试,有些假设了重要的整体测试结果,而另一些则没有这种假设?

3
对数转换的预测变量和/或响应的解释
我想知道是否仅对因变量(无论是因变量还是自变量)还是仅对自变量进行了对数转换,在解释上是否有所不同。 考虑以下情况 log(DV) = Intercept + B1*IV + Error 我可以将IV解释为百分比增长,但是当我拥有 log(DV) = Intercept + B1*log(IV) + Error 或当我有 DV = Intercept + B1*log(IV) + Error ?
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 

2
Benjamini&Hochberg(1995)和Benjamini&Yekutieli(2001)错误发现率程序之间的实际区别是什么?
我的统计程序同时执行了Benjamini&Hochberg(1995)和Benjamini&Yekutieli(2001)的错误发现率(FDR)程序。我已经尽力阅读了以后的文章,但是它在数学上相当密集,并且我不确定我是否理解这些过程之间的区别。从统计程序的基础代码中,我可以看到它们确实有所不同,并且后者包括我所看到的有关FDR的数量q,但还不太了解。 有没有理由更喜欢Benjamini&Hochberg(1995)程序而不是Benjamini&Yekutieli(2001)程序?他们有不同的假设吗?这些方法之间的实际区别是什么? 本杰米尼(Y.)和霍奇伯格(Y.)(1995)。控制错误发现率:一种实用且功能强大的多重测试方法。皇家统计协会杂志系列B,57,289-300。 Benjamini,Y.和Yekutieli,D.(2001)。依赖项下多重测试中错误发现率的控制。统计年鉴29,1165年至1188年。 以下评论中引用了1999年的论文:Yekuteli,D.和&Benjamini,Y.(1999)。基于重采样的错误发现率可控制多个测试过程以实现相关的测试统计信息。统计计划与推断杂志,82(1),171-196。

3
当成对t检验都不存在时,方差分析是否有意义?
如果没有成对t检验,单向(组或“水平”)ANOVA可能会报告显着差异?ñ> 2ñ>2N>2ñ(N− 1 )/ 2ñ(ñ-1个)/2N(N-1)/2 在这个答案中 @whuber写道: 众所周知,即使在任何一对均值的单独[未调整的成对] t检验都不会产生显着结果的情况下,全局ANOVA F检验也可以检测均值的差异。 因此显然有可能,但我不知道如何。什么时候发生,这种情况背后的直觉是什么?也许有人可以提供这种情况的简单玩具示例? 进一步说明: 显然可能存在相反的情况:总体ANOVA可能不显着,而某些成对的t检验错误地报告了显着差异(即,那些都是假阳性)。 我的问题是关于标准的,未经多次比较t检验的调整。如果使用调整后的测试(例如Tukey的HSD程序),那么即使整体ANOVA仍然没有一个是有意义的。这在几个问题中都涉及到,例如,如何获得显着的总体ANOVA,但与Tukey的过程没有成对的显着差异?和显着的方差分析相互作用,但非显着的成对比较。 更新。我的问题最初是指通常的两样本成对t检验。但是,正如@whuber在评论中指出的那样,在方差分析的背景下,t检验通常被理解为事后对比,它使用对所有组进行汇总的组内方差的ANOVA估计(这不是两个组中发生的事情) -样本t检验)。因此,我的问题实际上有两个不同的版本,对它们的回答都被肯定。见下文。


4
Fisher的LSD是否像他们所说的那样糟糕?
当我们在两组上进行实验(小样本量(通常每个治疗组的样本量约为7〜8))时,我们使用t检验来检验差异。但是,当我们执行方差分析(显然用于两个以上的小组)时,我们使用类似Bonferroni(成对比较的LSD /#)或Tukey的方法,并且作为一名学生,我已经被警告远离使用费舍尔最小有效差(LSD)。 现在的问题是,LSD类似于成对t检验(是吗?),因此它唯一不能解释的是我们正在进行多次比较。如果说ANOVA本身很重要,那么当与6个小组打交道时,这有多重要? 换句话说,使用Fisher的LSD是否有科学/统计上的理由?

5
主题测试后的特设课程?
在主题测试中进行事后调查的首选方法是什么?我已经看过使用Tukey的HSD的已发表工作,但是对Keppel和Maxwell&Delaney的评论表明,这些设计中可能会违反球形性,因此误差项不正确,并且这种方法存在问题。Maxwell&Delaney在他们的书中提供了解决该问题的方法,但我从未在任何统计数据包中看到过这样做的方法。他们提供的方法合适吗?对多个配对样本t检验进行Bonferroni或Sidak校正是否合理?可接受的答案将提供通用的R代码,该代码可以对包装中的ezANOVA功能所产生的简单,多路和混合设计进行事后分析ez,并提供适当的引文,可能会引起审阅者的注意。

1
为什么要完全使用ANOVA而不是直接进行事后或计划中的比较测试?
考虑到群体之间的方差分析情况,您首先实际进行这样的ANOVA测试,然后进行事后(Bonferroni,Šidák等)或计划的比较测试,您会得到什么?为什么不完全跳过ANOVA步骤? 我认为在这种情况下,组间ANOVA的一个好处是能够使用Tukey的HSD作为事后测试。后者需要ANOVA表中的组内均方来计算其相关的标准误差。但是,对不成对t检验的Bonferroni和Šidák调整不需要任何方差分析输入。 我想就小组内部方差分析的情况提出同样的问题。我知道在这种情况下,Tukey的HSD测试不是一个相关的考虑因素,这使得这个问题更加紧迫。

1
Kruskal-Wallis之后的事后测试:Dunn的测试或Bonferroni更正了Mann-Whitney的测试?
我有一些非高斯分布变量,我需要检查5个不同组中该变量的值之间是否存在显着差异。 我已经对Kruskal-Wallis进行了单向方差分析(其显着性上升),然后我必须检查哪些组存在显着差异。由于各组是排序的(第一个组中的变量值应低于第二组中的变量值,第二组中的变量值应低于第三组中的变量,依此类推on)我只执行了4个测试: Group 1 vs Group 2 Group 2 vs Group 3 Group 3 vs Group 4 Group 4 vs Group 5 我用两种不同的方法进行了分析。我从使用Dunn的多重比较测试开始,但是没有发现任何重大问题。另一方面,如果我使用Mann-Whitney检验并使用Bonferroni校正了检验的数量(4),那么有3项检验很有意义。 这是什么意思?我应该相信哪些结果?

2
如何获得显着的总体方差分析,但Tukey的过程没有成对的显着差异?
我用R进行了方差分析,并且得到了很大的不同。但是,当使用Tukey的程序检查哪些对有显着差异时,我什么也没得到。这怎么可能? 这是代码: fit5_snow<- lm(Response ~ Stimulus, data=audio_snow) anova(fit5_snow) > anova(fit5_snow) Analysis of Variance Table Response: Response Df Sum Sq Mean Sq F value Pr(>F) Stimulus 5 73.79 14.7578 2.6308 0.02929 * Residuals 84 471.20 5.6095 --- Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 …

1
Bonferroni还是Tukey?什么时候比较数量变大?
使用SPSS(第三版)阅读Field的发现统计信息我对ANOVA中的事后测试感到有些震惊。对于那些想要控制I型错误率的人,他建议使用Bonferroni或Tukey并说(第374页): 当比较次数较少时,Bonferroni具有更大的功能,而在测试大量均值时,Tukey的功能更为强大。 少量和大量均值之间的界限应该在哪里?

2
如何对lmer模型执行事后测试?
这是我的数据框: Group <- c("G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3") Subject <- c("S1","S2","S3","S4","S5","S6","S7","S8","S9","S10","S11","S12","S13","S14","S15","S1","S2","S3","S4","S5","S6","S7","S8","S9","S10","S11","S12","S13","S14","S15","S1","S2","S3","S4","S5","S6","S7","S8","S9","S10","S11","S12","S13","S14","S15") Value <- c(9.832217741,13.62390117,13.19671612,14.68552076,9.26683366,11.67886655,14.65083473,12.20969772,11.58494621,13.58474896,12.49053635,10.28208078,12.21945867,12.58276212,15.42648969,9.466436017,11.46582655,10.78725485,10.66159358,10.86701127,12.97863424,12.85276916,8.672953949,10.44587257,13.62135205,13.64038394,12.45778874,8.655142642,10.65925259,13.18336949,11.96595556,13.5552118,11.8337142,14.01763101,11.37502161,14.14801305,13.21640866,9.141392359,11.65848845,14.20350364,14.1829714,11.26202565,11.98431285,13.77216009,11.57303893) data <- data.frame(Group, Subject, Value) 然后,我运行一个线性混合效果模型来比较“价值”上这3组的差异,其中“主题”是随机因素: library(lme4) library(lmerTest) model <- lmer (Value~Group + (1|Subject), data = data) summary(model) 结果是: Fixed effects: Estimate Std. Error df t value Pr(>|t|) (Intercept) 12.48771 0.42892 31.54000 29.114 <2e-16 *** GroupG2 -1.12666 0.46702 28.00000 -2.412 …
18 r  lme4-nlme  post-hoc 

2
您如何撰写Tukey事后调查结果?
编写Tukey事后结果的正确方法是什么? 有几个结果不同的例子吗? 假设您有北,南,东和西。 North N=50 Mean=2.45 SD=3.9 std error=.577 LB=1.29 UB=3.62 South N=40 Mean=2.54 SD=3.8 std error=.576 LB=1.29 UB=3.63 East N=55 Mean=3.45 SD=3.7 std error=.575 LB=1.29 UB=3.64 West N=45 Mean=3.54 SD=3.6 std error=.574 LB=1.29 UB=3.65 北部在统计上具有重要性(东部(sig = .009)和西部(sig = .040),但南部没有(sig = .450)。东部与南部(.049)在统计上具有显着性。

2
卡方拟合优度检验的事后检验
我正在对三个类别进行卡方拟合优度(GOF)测试,并且特别想测试每个类别中的人口比例是否相等(即每个组中的比例为1/3)的零值: 观察到的数据 组1 组2 组3 总计 686 928 1012 2626 因此,对于此GOF测试,预期计数为2626(1/3)= 875.333,该测试得出的p值非常显着<0.0001。 现在,很明显,第1组与第2组和第3组明显不同,第2组和第3组也不大可能明显不同。但是,如果我确实想对所有这些进行正式测试并能够为每种情况提供p值,那么什么是合适的方法? 我在网上搜索了所有内容,似乎有不同的意见,但没有正式的文档。我想知道是否有文本或经过同行评审的论文可以解决这个问题。 对于我来说,似乎很合理的方法是,根据显着的总体检验,对每对比例的差异进行z检验,并可能对值进行校正(例如,可能是Bonferroni)。αα\alpha

1
lmer模型使用哪种多重比较方法:lsmeans或glht?
我正在使用具有一个固定效果(条件)和两个随机效果(由于主题设计和配对而导致的参与者)的混合效果模型分析数据集。该模型是使用lme4包生成的exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp)。 接下来,我针对没有固定效果(条件)的模型对该模型进行了似然比检验,结果有显着差异。我的数据集中有3个条件,因此我想进行多重比较,但不确定使用哪种方法。我在CrossValidated和其他论坛上发现了许多类似的问题,但我仍然很困惑。 据我所见,人们建议使用 1.该lsmeans包- lsmeans(exp.model,pairwise~condition)这给了我下面的输出: condition lsmean SE df lower.CL upper.CL Condition1 0.6538060 0.03272705 47.98 0.5880030 0.7196089 Condition2 0.7027413 0.03272705 47.98 0.6369384 0.7685443 Condition3 0.7580522 0.03272705 47.98 0.6922493 0.8238552 Confidence level used: 0.95 $contrasts contrast estimate SE df t.ratio p.value Condition1 - Condition2 -0.04893538 0.03813262 62.07 -1.283 0.4099 Condition1 - …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.