在混合模型中将因素视为随机因素有什么好处?
我出于某些原因而无法接受将模型因子标记为随机变量的好处。在我看来,似乎在几乎所有情况下,最佳解决方案都是将所有因素视为固定的。 首先,固定与随机的区别是任意的。标准解释是,如果一个人对特定的实验单位本身感兴趣,则应使用固定效应,而如果一个人对实验单位所代表的种群感兴趣,则应使用随机效应。这没有太大帮助,因为这意味着即使数据和实验设计保持相同,也可以在固定视图和随机视图之间进行切换。同样,此定义引起一种错觉,即如果将因子标记为随机,则从模型得出的推论比将因子标记为固定的情况更适用于总体。最后,盖尔曼(Gelman)表明,固定随机的区别令人困惑 甚至在定义级别,因为还有四个关于固定效应和随机效应的定义。 其次,混合模型的估计非常复杂。与“纯固定”模型相反,有多种方法可以获取p值,在R的lme4程序包中实现REML估计的贝茨教授甚至拒绝完全报告p值。 。 第三,存在一个模糊的问题,即随机因素会引入多少个隐式参数。以下示例是我对Burnham&Anderson,“ 模型选择”和“多模型推理:一种实用的信息理论方法”的改编。从偏差方差折衷的角度来看,随机效应的作用可以说明如下。考虑采用处理和主因子效应的单向方差分析,其中是可估计的。错误项具有分布。如果观察次数固定,则随着的增加,偏差方差折衷将恶化。假设我们说ķ ķ - 1 Ñ(0 ,σ 2)ķ ķKKKKKKK−1K−1K - 1N(0,σ2)N(0,σ2)\mathcal N(0, \sigma^2)KKKKKK主要效果来自分布。相应的模型将具有介于固定(过度拟合)版本和仅包含截距的欠拟合模型之间的复杂性。固定模型中有效参数的数量为N(0,σK)N(0,σK)\mathcal N(0, \sigma_K) 1intercept+(K−1)maineffects+1σ=K+1.1intercept+(K−1)maineffects+1σ=K+1.1 \:\:\mathrm{intercept} + (K - 1) \:\:\mathrm{main\: effects} + 1 \:\:\sigma = K + 1. 随机模型中有效参数的数量至少为三个:。另外,随机模型具有许多“隐藏”参数,这些参数是对主要效果施加的分布(在这种情况下为正常)限制所隐含的。intercept,σ,σKintercept,σ,σK \mathrm{intercept}, \sigma, \sigma_K 尤其是,如果存在一个具有两个水平的因子,则将其称为随机是没有意义的,即使我们确定知道它的水平是从某些人群中随机抽样的也是如此。这是因为固定效果版本具有三个参数,而随机效果版本具有三个以上参数。在这种情况下,随机模型比固定版本具有更高的复杂性。显然,从固定版本到随机版本的切换更适合更大的KKK。但是,随机模型中“隐藏”参数的数量是未知的,因此无法根据信息标准(例如AIC)比较固定版本和随机版本。因此,尽管该示例阐明了随机效应的贡献(更好的偏差-方差权衡的可能性),但它也表明,很难说何时可以合理地将因子从固定重新标记为随机。 “完全固定”模型中没有上述问题。因此,我愿意问: 谁能提供一个示例,说明在使用随机因子(如固定因子)时发生了非常糟糕的事情吗?我认为应该进行一些模拟研究来明确解决该问题。 是否有行之有效的定量方法来决定何时从固定标签转换为随机标签?