连续和分类预测变量之间相互作用的混合模型多重比较


11

我想lme4用来拟合混合效果回归并multcomp计算成对比较。我有一个包含多个连续和类别预测变量的复杂数据集,但是可以使用内置ChickWeight数据集作为示例来说明我的问题:

m <- lmer(weight ~ Time * Diet + (1 | Chick), data=ChickWeight, REML=F)

Time是连续的并且Diet是绝对的(4个级别),每个饮食中有多个小鸡。所有的雏鸡都以相同的体重开始,但是它们的饮食(可能)会影响它们的生长速度,因此Diet截距应该(或多或少)相同,但斜率可能会有所不同。我可以得到Diet像这样的拦截效果的成对比较:

summary(glht(m, linfct=mcp(Diet = "Tukey")))

并且确实没有显着差异,但是如何进行类似的测试Time:Diet?仅将交互作用项放入mcp会产生错误:

summary(glht(m, linfct=mcp('Time:Diet' = "Tukey")))
Error in summary(glht(m, linfct = mcp(`Time:Diet` = "Tukey"))) : 
  error in evaluating the argument 'object' in selecting a method for function
 'summary': Error in mcp2matrix(model, linfct = linfct) : 
Variable(s) Time:Diet have been specified in linfct but cannot be found in model’! 

它具有Time*Diet,只是的简化Time + Diet + Time:Diet。使用anova(m)summary(m)确认交互作用项在模型中。
Dan M.

Answers:


8

默认情况下,lmer将分类预测变量的参考级别视为基线,并估计其他级别的参数。因此,您可以在默认输出中获得一些成对比较,并且可以通过使用relevel定义新的参考水平并重新拟合模型来获得其他成对比较。这样做的好处是,您可以使用模型比较或MCMC来获取p值,但不能校正多个比较(尽管之后可以应用自己的校正)。

要使用multcomp,您需要定义对比度矩阵。对比矩阵中的每一行代表从默认模型输出中获得的效果的权重,从Intercept开始。因此,如果您想要一个已经包含在基本输出中的效果,只需在该效果对应的位置放置一个“ 1”即可。由于参数估计值是相对于公共参考水平的,因此您可以通过将一个的权重设置为“ -1”,将另一个的权重设置为“ 1”来获得其他两个水平之间的比较。这是示例中Time:Diet术语的工作方式ChickWeight

contrast.matrix <- rbind("Time:Diet1 vs. Time:Diet2" =  c(0, 0, 0, 0, 0, 1, 0, 0),
                           "Time:Diet1 vs. Time:Diet3" =  c(0, 0, 0, 0, 0, 0, 1, 0),
                           "Time:Diet1 vs. Time:Diet4" =  c(0, 0, 0, 0, 0, 0, 0, 1),
                           "Time:Diet2 vs. Time:Diet3" =  c(0, 0, 0, 0, 0, -1, 1, 0),
                           "Time:Diet2 vs. Time:Diet4" =  c(0, 0, 0, 0, 0, -1, 0, 1),
                           "Time:Diet3 vs. Time:Diet4" =  c(0, 0, 0, 0, 0, 0, -1, 1))
summary(glht(m, contrast.matrix))

注意:这种方法似乎是使用正态近似来获取p值的方法,该方法有些反保守,然后对多次比较进行一些校正。结果是该方法使您可以轻松访问所需的成对参数估计值和标准误差,但是p值可能是您想要的,也可能不是。

(感谢r-ling-lang-L的 Scott Jackson 提供的帮助)

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.