我有一个数据集,其中包含来自多个站点的一系列“断棍”月度病例计数。我正在尝试从两种不同的技术中获得一个汇总估算值:
技术1:将Poisson GLM的“折断棒”安装到指标变量0/1上,并使用时间和时间^ 2变量来控制时间趋势。该0/1指标变量的估计值和SE是使用相当精确的矩量法向上或向下合并的,或者使用R中的tlnise包来合并以获得“贝叶斯”估计值。这类似于Peng和Dominici处理空气污染数据的方法,但站点数量较少(约十二个)。
技术2:放弃一些针对特定地点的时间趋势控件,并使用线性混合模型。尤其:
lmer(cases ~ indicator + (1+month+I(month^2) + offset(log(p)), family="poisson", data=data)
我的问题涉及这些估计得出的标准误差。技术1的标准误差实际上使用的是每周一次而不是每月的时间设置,因此应该具有更高的精度。对于矩量法,估计的标准误差为〜0.206,对于tise的估计值则为〜0.306。
lmer方法给出的标准误差约为0.09。效果估计值是相当接近的,因此似乎并不是因为混合模型的效率大大提高,它们只是在不同的摘要估计值上归零。
这是合理的期望吗?如果是这样,为什么混合模型效率更高?这是普遍现象,还是该模型的特定结果?