“正相关性”的含义是使用常规方法进行FDR控制的条件


36

Benjamini和Hochberg开发了第一种(我认为仍是使用最广泛的方法)来控制错误发现率(FDR)。

我想从一堆P值开始,每个P值用于不同的比较,并确定哪些值足够低以至于被称为“发现”,从而将FDR控制为指定值(例如10%)。常用方法的一个假设是,这组比较是独立的或具有“正相关性”,但在分析一组P值的上下文中,我无法确切弄清楚该短语的含义。


1
感谢您为我的回答提供赏金,Harvey!您是说它为您解决了这个问题,还是在寻找更详细的说明?我注意到您尚未接受任何答案,这就是为什么我要澄清。谢谢。也许您可以评论或编辑您的Q来澄清您仍想澄清的内容。
变形虫说莫妮卡(Reonica Monica)

2
@阿米巴。赏金的截止日期已经到了我,你的回答是迄今为止最好的。坦白说,那时候我从没想到给予赏金也不会接受答案。但是我知道这些是与众不同的(我会怪飞机时差)。但是,完整的答案确实需要包括一些实际的例子,其中P值的集合都具有正相关性,而没有正相关性。我将等待一个星期的答案,希望有人可以给出两种示例,因此含义很清楚。
Harvey Motulsky

这可能不是一个令人满意的例子,但是如果我们考虑对相关变量执行单尾检验,那么带正相关和不带正相关的p值确实很容易。想象一下,我正在针对单尾选择(A> 0和B> 0)测试A = 0以及B = 0。进一步假设B取决于A。例如,假设我想知道某个人口中女性比男性多,以及卵巢是否比睾丸多。清楚地知道第一个问题的p值会改变我们对第二个问题的p值的期望
Jacob Socolar

谢谢,哈维。我希望很明显,我不是想让您接受我的答案(!!),而是要澄清您在此主题中寻找的答案是什么,以及您仍然想澄清的是什么。我并不是这个主题的真正专家,只是试图理解它。
变形虫说莫妮卡(Reonica Monica)

两个p值都沿相同方向变化,这就是PRD。但是,如果我改为检验人口2的卵巢比卵巢多的第二个假设,那么我们对第二个p值的期望会随着第一个p值的增加而降低。这不是PRD。
雅各布·索科拉尔

Answers:


20

从您的问题,尤其是您的评论到其他答案,在我看来,您主要是对这里的“大局面”感到困惑:即,在这种情况下 “积极依赖”到底指的是什么-与之相反是PRDS条件的技术含义。因此,我将讨论大局。

大图景

想象一下,您正在检验零假设,并假设所有假设都是正确的。N p个值中的每一个都是随机变量。重复实验一遍一遍将产生一个目前存在的p -值每一次,所以可以谈论的分布p -值(空下)。众所周知,对于任何测试,空值下的p值分布都必须是均匀的。因此,在多重检验的情况下,p值的所有N个边际分布将是均匀的。NN ppppNp

如果所有数据和所有检验彼此独立,则p值的N维联合分布也将是均匀的。这是正确的,例如,在测试一堆独立的事物的经典“软心豆粒糖”情况下:NNp

绿色软心豆粒糖

但是,不必一定是这样。原则上,任何一对都可以正相关或负相关,或以某些更复杂的方式相关。考虑测试四组之间均值的所有成对差异;这是Ñ = 4 3 / 2 = 6的测试。六个p值中的每个值都是均匀分布的。但是它们全都是正相关的:如果(在给定的尝试中)A组偶然的平均值特别低,则A-vs-B比较可能会产生较低的p值(这将是假阳性)。但是在这种情况下,A-vs-C以及A-vs-D也会产生低ppN=43/2=6ppp值。因此,显然是非独立的,而且它们之间是正相关的。p

非正式地,这就是“积极依赖”。

这似乎是多重测试中的常见情况。另一个示例是测试相互关联的几个变量的差异。在其中一个中获得显着差异会增加在另一个中获得显着差异的机会。

提出一个自然的例子是很棘手的,其中将“负相关”。@ user43849在上面的评论中指出,对于单面测试,这很容易:p

想象一下,我正在针对单尾选择(A> 0和B> 0)测试A是否为0,B是否为0。进一步假设B取决于A。例如,假设我想知道某个人口中女性比男性多,以及卵巢是否比睾丸多。清楚地知道第一个问题的p值会改变我们对第二个问题的p值的期望。两个p值都沿相同方向变化,这就是PRD。但是,如果我改为检验人口2的卵巢比卵巢多的第二个假设,那么我们对第二个p值的期望会随着第一个p值的增加而降低。这不是PRD。

但是到目前为止,我还无法提出一个自然的示例,其中包含点空值。


现在,保证Benjamini-Hochberg过程有效性的“正相关性”的精确数学表述非常棘手。正如其他答案中提到的那样,主要参考文献是Benjamini&Yekutieli 2001;他们表明PRDS属性(“对子集的每个元素的正回归依赖”)需要Benjamini-Hochberg过程。它是PRD(“正回归依赖项”)属性的一种宽松形式,意味着PRD暗示PRDS,因此也需要Benjamini-Hochberg过程。

有关PRD / PRDS的定义,请参见@ user43849的答案(+1)和Benjamini&Yekutieli的论文。这些定义是技术性的,我对它们没有很好的直观理解。实际上,B&Y还提到了其他几个相关概念:二阶多变量总阳性(MTP2)和正相关。根据B&Y的说法,它们之间的关系如下(图中的是我的):

PRD,PRDS,MTP2和PA


μA<μB<μCx¯B<μBx¯AμAx¯CμCpA vs. BH0 |x¯Ax¯B|<|x¯Bx¯C|pB vs. C

1
μA=μB=μC

因此,如果很难考虑否定依赖性情况,则Benjamini-Hochberg程序对于诸如拒绝独​​立组的综合无效假设后的事后成对检验等情况有效(例如,单向不阻塞方差分析,Cochran's Q,Kruskal- Wallis等)?
Alexis

@Alexis我相信这是正确的,是的。我仍在尝试提出一个具有消极依赖性的自然例子……
变形虫说莫妮卡(Reonica)Monica

岩!你走,女孩!:)(对于“女孩”一词的无性别含义;)。
亚历克西斯(Alexis)

18

好问题!让我们退后一步,了解Bonferroni所做的事情,以及Benjamini和Hochberg为什么有必要开发替代方案。

P=0.0550,000(0.05/M)FWER

TWERFWER=1(1TWER)M(10.05)1/M=10.05MTWER0.05M

正如本杰米尼(Benjamini)和霍奇伯格(Hochberg)一样,我们现在遇到的问题是,并非所有测试都是完全独立的。因此,Bonferroni校正虽然健壮且灵活,但却是一种过度校正。考虑遗传学中两个基因连锁的情况,这种情况称为连锁不平衡。也就是说,当一个基因具有突变时,另一个基因更可能被表达。这些显然不是独立的测试,尽管在bonferroni校正中假定它们是。在这里,我们开始看到,将P值除以M会创建一个人为地降低阈值,这是因为假定的独立测试确实会相互影响,因此,人为地创建了一个M值,对于我们的实际情况而言,M值过大不独立。

本杰米尼(Benjamini)和霍赫伯格(Hochberg)建议的方法,以及叶库捷利(Yekuteli)(以及许多其他人)所推荐的方法比邦费罗尼(Bonferroni)更宽松,实际上,邦费罗尼校正仅用于目前最大的研究中。这是因为,在FDR中,我们假设测试部分相互依赖,因此M太大而又不切实际,并且摆脱了我们实际上关心的结果。因此,在1000个非独立测试的情况下,真实 M不会为1000,而是由于依赖性而较小。因此,当我们将0.05除以1000时,阈值过于严格,因此避免了一些可能令人感兴趣的测试。

我不确定您是否关心依赖控制的机制,尽管如果您愿意,我已将Yekutieli论文链接起来供您参考。我还将附加一些其他信息,以供您参考和好奇。

希望这对您有所帮助,如果我歪曲了任何话,请告诉我。

~~~

参考文献

关于积极依赖的Yekutieli论文-http: //www.math.tau.ac.il/~ybenja/MyPapers/benjamini_yekutieli_ANNSTAT2001.pdf

(请参阅1.3-问题。)

解释Bonferroni和其他有趣的事物-Nature Genetics评论。大规模遗传研究中的统计功效和显着性检验-Pak C Sham和Shaun M Purcell

(请参阅方框3。)

http://en.wikipedia.org/wiki/Familywise_error_rate

编辑:

在我之前的回答中,我没有直接定义正依赖性,这就是要问的。在Yekutieli的论文中,2.2标题为“正向依赖性”的部分,我建议这样做,因为它非常详细。但是,我相信我们可以使其更加简洁。

I0I0

PRDS

XI0XI0XI0xX

P

总而言之,正相关性的属性实际上是我们的整个测试统计数据集对我们的一组真实的无效测试统计数据的正回归相关性的属性,我们将FDR控制为0.05;因此,随着P值从下到上(逐步执行过程),它们作为空集的一部分的可能性增加。

我以前在有关协方差矩阵的评论中的答案是不正确的,只是有点模糊。我希望这会有所帮助。


6
谢谢。您提供了控制家庭明智的错误率(Bonferroni等)与控制FDR的清晰概述,但是我仍然不明白“积极依赖”的含义。考虑我有1000个P值,测试了1000种不同基因的表达,以比较有无疾病的人。我使用BH方法来确定这些比较中的哪些是“发现”。在这种情况下,“积极依赖”是什么意思?
哈维·莫图尔斯基

9
一个小而重要的说明:Bonferroni绝对不对独立性做任何假设。实际上,在相互排斥的情况下它会正确覆盖,从某种意义上说,这种情况与您所能获得的独立性几乎没有任何距离。还有就是,它假设独立性,并会更强烈地控制该假设下FWER的修正过程(Sidak)。该答案的其他一些方面也可以使用一些轻触修饰。
主教

2
@ChrisC我还是不明白。“元素之间的协方差矩阵”?我从一个P值列表开始,并希望确定哪些值足够低以至于值得跟进(在FDR受控的情况下)。协方差矩阵的元素是什么?假设每个P值都在比较各组之间特定基因的表达,并且有许多这样的基因。对于每个基因,在测试时比较得出P值的组。在这种情况下,“元素一起变化”或“它们之间存在正相关”是什么意思?
Harvey Motulsky 2014年

2
@ChrisC谢谢。这变得更加清楚了,但是我仍然没有真正理解这个假设的含义。了解该方法背后的假设的全部目的是知道您何时可能违反该假设。因此,这将有助于列出假设不成立的某些情况。较低的P值何时不与零假设为假的较高概率无关?
哈维·莫图尔斯基

1
这不能回答问题。
Alexis

10

我发现此预印本有助于理解含义。应该说,我提供的答案不是作为该主题的专家,而是作为一种理解,以供社区进行审查和验证。

感谢变形虫对PRD和PRDS之间的区别的非常有益的观察,请参阅评论

pCpC

  1. qC
  2. rqrqri<qii
  3. rC

C

pp1...pn<B1...BnpCB1...Bn

pipipip1...pnp1...pnpi

p1...pn

pnpn<BBpn<Bpn<BB

编辑添加:

这是一个非PRDS系统的假定示例(下面的R代码)。逻辑是,当样本a和b非常相似时,它们的乘积很有可能是非典型的。我怀疑这种影响(而不是(a*b), (c*d)比较中null值下p值的不均匀性)推动了p值的负相关,但我不确定。如果我们对第二个比较(而不是Wilcoxon)进行t检验,则会出现相同的效果,但是p值的分布仍然不均匀,可能是由于违反了正态性假设。

ab <- rep(NA, 100000)  # We'll repeat the comparison many times to assess the relationships among p-values.
abcd <- rep(NA, 100000)

for(i in 1:100000){
  a <- rnorm(10)    # Draw 4 samples from identical populations.
  b <- rnorm(10)
  c <- rnorm(10)
  d <- rnorm(10)

  ab[i] <- t.test(a,b)$p.value          # We perform 2 comparisons and extract p-values
  abcd[i] <- wilcox.test((a*b),(c*d))$p.value
}

summary(lm(abcd ~ ab))    # The p-values are negatively correlated

ks.test(ab, punif)    # The p-values are uniform for the first test
ks.test(abcd, punif)   # but non-uniform for the second test.
hist(abcd)

抱歉,但我并没有真正遵循。
哈维·莫图尔斯基

新的最后一段是否将其全部清除?
雅各布·索科拉尔

@变形虫,是的,我想你是对的。以前的海报所链接的Yekutieli论文是PRDS的治疗方法。据我所知,PRD是相同的属性,但是在所有测试统计信息(或p值)中,不仅仅是与真实空值相对应的子集。
雅各布·索科拉尔

1
是的,您绝对正确。现在编辑。
雅各布·索科拉尔

1
有趣的例子,但效果非常微弱:我得到的相关系数(在ab和abcd之间)约为-0.03 ...但是我不明白:为什么说“当样本a和b非常相似时,他们的产品更有可能是非典型的”?
变形虫说莫妮卡(Reonica)Monica

4

Benjamini和Yekutieli 在他们的论文中提供了一些示例,说明正向回归依赖性(PRD)与正向依赖性之间的区别。FDR控制程序依赖于PRD的一种较弱形式,它们称为PRDS(即,每个变量子集中的PRD)。

正相关性最初是由Lehmann在双变量环境中提出的,但是这种概念的多变量版本(称为正回归相关性)与多重检验相关。

这里是一个摘要pg.6

X(X1,X2)Xh(X1)X2h(X1)


2

在这种情况下,正相关性意味着测试集是正相关的。这样的想法是,如果您具有P值的测试集中的变量呈正相关,则每个变量都不独立

例如,如果您回想一下Bonferroni p值校正,则可以通过将显着性阈值设置为0.1 / 100 = 0.001,来保证在100次统计独立的测试中1型错误率小于10%。但是,如果那100个测试中的每一个以某种方式相关联,该怎么办?那么您实际上并没有执行100个单独的测试。

在FDR中,该想法与Bonferroni校正略有不同。这个想法是要保证您声明为重要的事物中只有一定百分比(例如10%)被错误地声明为重要。如果数据集中具有相关标记(正相关性),则根据执行的测试总数来选择FDR值(但统计上独立的测试的实际数量较小)。这样,可以更安全地得出以下结论:错误发现率错误地声明了P值集中的测试的10%或更少。

请参见本书章节,以讨论正向依赖性。


2
您解释了FDR与Bonferroni的关系,但没有定义“正相关性”,而只是将其改写为“正相关”,但我不明白。考虑我有1000个P值,测试了1000种不同基因的表达,以比较有无疾病的人。我使用BH方法来确定这些比较中的哪些是“发现”。在这种情况下,“积极依赖”是什么意思?
2014年

5
这个答案是完全错误的。正回归依赖性和正相关性彼此不同。Benjamini Yekutieli的论文对此进行了解释并提供了参考。“尽管如此,PRDS和正向关联并不意味着彼此,而且两者之间的差异是很重要的。例如,如果所有相关都是非负的,则多元正态分布是正相关的。要保持PRDS属性,并非所有的关联都必须是非负的(参见下面的案例1,第3.1节)。” 参见第 本文的6。
user3303 '16
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.