我认为这是计算哪些测试的区别。car::Anova
使用Wald检验,而drop1
对模型进行了拟合以除去单个项。约翰·福克斯(John Fox)曾经写信给我,瓦尔德(Wald)测试和使用似然比检验(即的策略drop1
)从改型模型中进行的检验都同意线性模型,但不一定是非线性模型。不幸的是,该邮件已被取消列出,并且没有任何参考。但我知道他的书中有一章关于Wald测试,其中可能包含所需的信息。
的帮助car::Anova
说:
II类测验是根据边际性原则计算的,每个测验都在所有其他测验之后进行,除非忽略了该测验的高阶亲属。所谓的III型测试违反了边际性,在模型中的所有其他术语之后进行测试。II型检验的定义对应于SAS针对方差分析模型进行的检验,其中所有预测因素都是因素,但不是更普遍(即,当存在定量预测因素时)。在为III型检验建立模型时要格外小心,否则检验的假设就没有意义。
不幸的是,由于我也想知道这一点,所以我无法回答您第二或第三个问题。
更新搜索注释:
广义混合模型没有Wald,LR和F检验。Anova
只允许"chisq"
并"F"
测试混合模型(即"mer"
所返回的对象lmer
)。用法部分说:
## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3),
test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)
但是,由于mer
对象的F检验是由计算的pbkrtest
,据我所知,它仅适用于线性混合模型,Anova
因为GLMM应该总是返回chisq
(因此,您看不到差异)。
有关该问题的更新:
我以前的答案只是试图回答您的主要问题,之间的差异Anova()
和drop1()
。但是现在我知道您想测试某些固定效果是否显着。关于此,R-sig混合建模常见问题说明了以下内容:
单个参数测试
从最坏到最好:
- Wald Z检验
- 对于可以计算df的平衡嵌套LMM:Wald t检验
- 似然比测试,可以通过建立模型以使参数可以隔离/删除(通过方差分析或drop1),也可以通过计算似然曲线进行
- MCMC或参数自举置信区间
效果测试(即测试多个参数同时为零)
从最坏到最好:
- Wald卡方检验(例如car :: Anova)
- 似然比测试(通过方差分析或drop1)
- 对于可以计算df的平衡,嵌套LMM:条件F检验
- 对于LMM:带df校正的条件F检验(例如pbkrtest软件包中的Kenward-Roger)
- MCMC或参数(或非参数)引导程序比较(非参数引导程序必须仔细实施以考虑分组因素)
(添加了重点)
这表明car::Anova()
通常不建议您使用用于GLMM的方法,但是应该使用使用MCMC或引导程序的方法。我不知道是否pvals.fnc
从languageR
GLMM 的包装锅中取出,但是值得尝试。