1978年我在牛津大学攻读硕士学位时,我第一次遇到了ANOVA。现代方法通过在多元回归模型中一起教授连续变量和分类变量,使年轻的统计学家很难理解正在发生的事情。因此,回到更简单的时代会有所帮助。
在其原始形式中,ANOVA是一种算术练习,通过该练习,您可以将平方总和分解为与处理,块,相互作用等相关的部分。在平衡设置中,具有直观含义的平方和(如SSB和SST)加起来就是调整后的平方和。所有这些工作都要归功于Cochran定理。使用Cochran,您可以在通常的零假设下计算出这些术语的期望值,然后F统计就从那里流出。
另外,一旦您开始考虑Cochran和平方和,就可以使用正交对比对平方和进行处理切块和切块。方差分析表中的每个条目都应具有统计学家感兴趣的解释,并得出可检验的假设。
我最近写了一个答案,指出了MOM和ML方法之间的差异。这个问题开始估计随机效应模型。在这一点上,传统的方差分析方法完全将最大似然估计与公司分开,并且影响的估计不再相同。当设计不平衡时,您也不会获得相同的F统计信息。
过去,当统计学家想从分割图或重复测量设计中计算随机效应时,随机效应方差是从ANOVA表的均方算出的。因此,如果您有一个方差为,并且剩余方差为,则可能使图的均方根的期望值(“ expected mean square”,EMS)为,其中图中的分割数为。您将均方值设置为其期望值,然后求解 σ 2 σ 2 + Ñ σ 2 p Ñ ^ σ 2 bσ2pσ2σ2+nσ2pnσ2b^。方差分析产生了一种用于随机效应方差的矩估计器方法。现在,我们倾向于使用混合效应模型解决此类问题,并且通过最大似然估计或REML获得方差分量。
这样的方差分析不是矩量法的一种方法。它打开将平方和(或更一般地,响应的二次形式)拆分为产生有意义假设的分量。它强烈依赖于正态性,因为我们希望平方和具有卡方分布才能使F检验起作用。
最大似然框架更为笼统,适用于诸如平方和不适用的广义线性模型之类的情况。一些软件(如R)通过指定渐近线方差分布的似然比检验指定方差分析方法来引起混淆。可以证明使用“方差分析”一词是合理的,但是严格来说,其背后的理论是不同的。