Questions tagged «bonferroni»

Bonferroni是一种针对多个比较的调整方法,其中p值除以测试次数。它比许多其他此类方法更为保守。

2
“ p值”的确切值是否没有意义?
早在2009年,我就曾与统计学家进行过讨论,他说p值的确切值无关紧要:唯一重要的是它是否有意义。即一个结果不能比另一个结果更重要;例如,您的样本来自同一人群,也可能来自不同人群。 我对此有些疑惑,但我也许可以理解其意识形态: 5%的阈值是任意的,即p = 0.051并不重要,而p = 0.049则不应真正改变观察或实验的结论,尽管一个结果很重要而另一个结果不重要。 我之所以提出这一点,是因为我正在研究生物信息学理学硕士学位,并且与该领域的人们交谈之后,似乎有坚定的决心要为他们所做的每组统计数据获取准确的p值。例如,如果他们“实现” p <1.9×10 -12的p值,则他们想证明其结果的显着性,并且该结果具有丰富的信息。通过以下问题举例说明了此问题:为什么我的p值不能小于2.2e-16?,因此他们希望记录一个值,该值指示仅凭偶然这将小于万亿分之一。但是,在证明这一结果发生在万亿分之一以下而不是十亿分之一中,我看不出有什么区别。 那么我可以理解,p <0.01表明发生这种情况的可能性不到1%,而p <0.001表明这样的结果比上述p值更不可能发生,但是您得出的结论应该是完全不同?毕竟它们都是重要的p值。我想想想记录确切的p值的唯一方法是在Bonferroni校正过程中,由于比较次数的原因,阈值会发生变化,从而减少了I型错误。但是,即使如此,为什么还要显示一个比阈值有效值小12个数量级的p值? 而且,应用Bonferroni校正本身不是也有些随意吗?从某种意义上说,最初的校正被认为是非常保守的,因此可以进行其他校正,以选择观察者可用于其多次比较的显着性水平。但是正因为如此,根据研究人员想要使用的统计数据,事情并不是变得很重要就本质上不是可变的。统计数据应该这么开放吗? 总之,统计数据是否应该主观性更好(尽管我猜想它需要主观性是多变量系统的结果),但最终我需要澄清一下:某事是否比别的事重要?而且,p <0.001是否足以记录准确的p值?

3
自从黎明以来,为什么不对所有实验进行多重假设校正?
我们知道,为了控制错误发现率,我们必须对基于单个数据集的实验应用类似于Benjamini Hochberg的校正来进行多个假设检验,否则所有给出阳性结果的实验​​都可能是错误的。 但是,为什么自开始以来我们不对所有实验都应用相同的原理,而不管数据来自何处? 毕竟,现在已知超过一半的被发表为“重要”的科学成果是虚假且不可复制的,没有理由不能如此轻易地做到100%。由于科学家只倾向于发表阳性结果,因此我们不知道阴性结果的数量,因此我们也不知道我们发表的内容是否只是假阳性-在零假设下纯正的随机机会产生的阳性结果。同时,没什么可说的是,多个假设检验校正的数学运算仅应适用于同一数据集的结果,而不适用于随时间推移获得的所有实验数据的结果。 似乎整个科学已经成为基于错误或虚假假设的一项大型捕鱼活动,那么我们如何才能对此进行控制? 如果我们曾经发布的所有结果都是独立的结果而没有对迄今为止进行的所有实验的多个假设检验进行任何校正,那么我们如何控制错误发现率呢? 是否可以在不进行此类纠正的情况下控制错误发现率?

7
Bonferroni调整有什么问题?
我阅读了以下论文:Perneger(1998)Bonferroni调整有什么问题。 作者总结说,Bonferroni调整充其量仅在生物医学研究中有有限的应用,并且在评估有关特定假设的证据时不应使用: 总结要点: 根据研究数据进行的检验数量的统计显着性调整(Bonferroni方法)会产生比其解决的问题更多的问题 Bonferroni方法与一般的零假设(所有零假设同时为真)有关,这对于研究人员来说很少有兴趣或使用。 主要缺点是对结果的解释取决于执行的其他测试的数量 II型错误的可能性也增加了,因此真正重要的差异被认为是不重要的 简单描述已执行过哪些重要检验以及为什么进行检验,通常是处理多重比较的最佳方法 我有以下数据集,但我想进行多次测试校正,但在这种情况下我无法决定最佳方法。 我想知道是否必须对所有包含均值列表的数据集进行这种校正,在这种情况下,最佳的校正方法是什么?

4
Fisher的LSD是否像他们所说的那样糟糕?
当我们在两组上进行实验(小样本量(通常每个治疗组的样本量约为7〜8))时,我们使用t检验来检验差异。但是,当我们执行方差分析(显然用于两个以上的小组)时,我们使用类似Bonferroni(成对比较的LSD /#)或Tukey的方法,并且作为一名学生,我已经被警告远离使用费舍尔最小有效差(LSD)。 现在的问题是,LSD类似于成对t检验(是吗?),因此它唯一不能解释的是我们正在进行多次比较。如果说ANOVA本身很重要,那么当与6个小组打交道时,这有多重要? 换句话说,使用Fisher的LSD是否有科学/统计上的理由?

3
如何以及何时使用Bonferroni调整
关于何时使用Bonferroni调整,我有两个问题: 在多次测试的所有情况下都使用Bonferroni调整是否合适? 如果对数据集执行测试,则将数据集划分为更细的级别(例如,按性别划分数据)并执行相同的测试,这将如何影响感知到的单个测试的数量?也就是说,如果在包含来自男性和女性的数据的数据集上测试了X个假设,然后将数据集拆分为分别提供男性和女性数据并测试了相同的假设,那么各个假设的数量将保持为X还是由于额外的测试? 谢谢您的意见。


1
Bonferroni还是Tukey?什么时候比较数量变大?
使用SPSS(第三版)阅读Field的发现统计信息我对ANOVA中的事后测试感到有些震惊。对于那些想要控制I型错误率的人,他建议使用Bonferroni或Tukey并说(第374页): 当比较次数较少时,Bonferroni具有更大的功能,而在测试大量均值时,Tukey的功能更为强大。 少量和大量均值之间的界限应该在哪里?

4
Sidak还是Bonferroni?
我在SPSS中使用广义线性模型来研究16种不同植物上毛虫的平均数量差异(非正态,使用Tweedie分布)。 我想进行多个比较,但是不确定是否应该使用Sidak或Bonferroni校正测试。两种测试有什么区别?这个比那个好吗?

1
何时在多个比较中更正p值?
恐怕相关问题无法回答我的问题。我们评估> 2个分类器(机器学习)的性能。我们的零假设是表演没有差异。我们执行参数(ANOVA)和非参数(Friedman)检验来评估该假设。如果它们很重要,我们想找出在事后搜寻中哪些分类器有所不同。 我的问题是双重的: 1)多次比较测试后是否需要校正p值?在“ Alphafehler Kumulierung”上的德国维基百科站点上说,仅当在相同数据上检验多个假设时,才会出现此问题。比较分类器(1,2),(1,3),(2,3)时,数据仅部分重叠。是否仍然需要校正p值? 2)P值校正通常在通过t检验进行成对测试之后使用。在进行专门的事后测试,例如Nemenyi(非参数)或Tukey的HSD测试时,是否也有必要?对于Tukey的HSD,此答案为“否”:Tukey HSD测试是否可正确进行多次比较?。是否有规则或我必须针对每个可能的事后测试进行检查? 谢谢!

1
Holm-Bonferroni检验的置信区间?
我是多重比较问题的新手。我想知道如何为Holm-Bonferroni方法计算置信区间? 我知道,对于Bonferroni方法,我们可以将置信度级别从更改为。1−α1−α1-\alpha1−αm1−αm1-\frac{\alpha}{m} 此方法对Holm-Bonferroni也有效吗? Edit:Edit:\bf{Edit}:似乎HB方法没有提供更正conf的过程。间隔。但是您能否评论一下,我可以使用一种方法进行p值校正,而另一种方法进行间隔校正?

2
为什么在Holm-Bonferroni上使用Bonferroni?
我明白了为什么您可能不对Bonferroni校正使用更强大的方法(例如Hochberg方法),因为它们可能具有额外的假设,例如在这种情况下的假设独立性,但是我不明白为什么您会这样做永远不要对Holm的顺序拒绝修改使用Bonferroni校正,因为后者比Bonferroni更强大并且没有更多假设。我错过了什么吗?

1
局部Moran的I统计量(LISA)的p值调整
我正在使用spdep软件包在R中进行一些探索性空间分析。 我遇到了一个选项,用于调整使用函数计算的空间关联性本地指标(LISA)的plocalmoran值。根据文档,它的目标是: ...用于多个测试的概率值调整。 在p.adjustSP我进一步阅读的文档中,可用选项包括: 调整方法包括Bonferroni校正(“ bonferroni””),其中p值乘以比较次数。Holm(1979)(“” holm“”),Hochberg(1988)('“” hochberg“'),Hommel(1988)('” hommel“')和Benjamini&Hochberg(1995)也进行了四次较不保守的校正。 ('“ fdr”')。还包括传递选项(“ none”)。 前四种方法旨在严格控制家庭错误率。似乎没有理由使用未经修改的Bonferroni校正,因为它受到Holm方法的支配,该方法在任意假设下也有效。 当假设检验是独立的或非负相关时,Hochberg和Hommel的方法是有效的(Sarkar,1998; Sarkar和Chang,1997)。Hommel的方法比Hochberg的方法更强大,但是差异通常很小,并且Hochberg p值的计算速度更快。 Benjamini,Hochberg和Yekutieli的“ BH”(又名“ fdr”)和“ BY”方法控制错误发现率,即错误发现的预期比例在被拒绝的假设中。误发现率的条件不如家庭式错误率严格,因此这些方法比其他方法更有效。 出现的几个问题: 简而言之-这项调整的目的是什么? 是否有必要使用此类更正? 如果是,如何从可用选项中进行选择?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.