我正在阅读一篇论文的评论,并且作者指出,有时,即使估计值(通过ML或最大拟似然法得出)可能不一致,但似然比或拟似然比检验的功效仍然可以收敛到1,因为观察到的数据数量趋于无穷大(测试一致性)。如何以及何时发生?你知道一些书目吗?
我正在阅读一篇论文的评论,并且作者指出,有时,即使估计值(通过ML或最大拟似然法得出)可能不一致,但似然比或拟似然比检验的功效仍然可以收敛到1,因为观察到的数据数量趋于无穷大(测试一致性)。如何以及何时发生?你知道一些书目吗?
Answers:
[我认为这可能是您所讨论问题的一种示例。]
ML估计量不一致的例子有很多。不一致通常在各种稍微复杂的混合问题和检查问题中看到。
[测试的一致性基本上只是对于(固定)错误假设的测试功效增加为。]
拉德福德·尼尔(Radford Neal)在他的博客条目2008-08-09中给出了一个示例:最大似然估计的不一致:一个“普通”示例。它涉及到参数的估计在:
(尼尔使用其中I具有θ),其中的ML估计θ将趋于0作为ñ →交通∞(实际上的可能性可以是远高于峰值接近0比为相当有限的样本大小的真值)。尽管如此,在真实值θ附近有一个峰,它比在0 附近的峰小。
现在想象一下与这种情况有关的两个案例:
a)进行的似然比检验,备择ħ 1:θ < θ 0 ;
b)进行的似然比检验,备择ħ 1:θ ≠ θ 0。
在情形(a),假设真实(使得替代是真实的,0是真正的另一侧θ)。然后,尽管这一事实的可能性非常接近于0将超过在的,可能但超过的可能性即使在小样本,比例将继续增长,因为更大的,以使似然比测试中的拒绝概率变为1。θ θ 0 Ñ →交通∞
的确,即使在情况(b)中,只要固定且远离边界,也应该存在这样的可能性,即似然比将以使似然比测试中的拒绝概率也增大的方式增长方法1。 0
因此,这似乎是ML估计不一致的一个示例,尽管LRT的为1(时除外)。
[请注意,whuber的答案中实际上还没有什么东西,我认为这是一个清晰的例子,并且对于理解测试一致性和估计量一致性之间的区别要简单得多。在特定示例中不一致的估计量不是ML的事实,就了解差异而言并没有多大关系-引入一个专门针对ML的不一致的估计量-正如我在此处尝试做的-并没有真正改变任何实质性解释。该示例的唯一真实之处在于,我认为它解决了您对使用ML估计器的担忧。]
令从正态分布中抽取。考虑估计量(μ ,1 )
的分布是普通。它收敛到,表明它是不一致的。(μ + 1 ,1 / √μ+1≠μ
在假设与一个简单的假设,对数似然比将与基于而不是的LLR完全相同。(实际上,是有用的零假设比较到备择假设)。由于基于平均测试有功率收敛到为任何测试大小和任何效果大小,使用本身的测试功效也收敛为。 μ = μ 阿ˉ X Ť Ť μ + 1 = μ 0 + 1 μ + 1 = μ 阿 + 1 1 α > 0 Ť 1