Answers:
让我提出一个无聊的反例。假设不仅比渐近高效,而且还可以达到Cramer Rao下界。对于来说,一种聪明的收缩方法是: with。的渐近方差为 ,其中最后一个等式使用引理在Hausman的论文中。我们有 β 2 β 2 β * 2 =瓦特 β 2+(1-瓦特) β 1瓦特∈(0,1) β * 2 V*=甲v一个[R (瓦特 β 2+(1-瓦特) β 1)=
当然,这里的要点是收缩是朝着有效估计量进行的,因此不适用于有效估计量本身。从高层次看,这似乎很明显,但我想在一个特定示例中,它并不是那么明显(均匀分布的MLE和矩矩估计器可能就是一个示例?)。
这是一个有趣的问题,在这里我想先指出一些要点。
从根本上讲,可以在特定框架内改进估计量,例如无偏估计量。但是,正如您所指出的,不同的损失函数会使情况变得困难,因为一个损失函数可能会使二次损失最小化,而另一个损失函数会使熵最小化。而且,使用“始终”一词非常棘手,因为从逻辑上讲,如果一个估计量是班上最好的一个,则您不能要求任何更好的估计量。
对于一个简单示例(在同一框架中),让两个估计量分别为Bridge(具有范数罚分的惩罚回归)和Lasso(第一个范数罚分似然)以及稀疏的参数集,线性模型,误差项的正态性,,已知,二次损失函数(最小二乘误差)和中协变量的独立性。让我们为一个估计器的选择,为第二个估计器选择。然后,可以通过选择来改进估计量 β ÿ = X最终得到了更好的估计量,方差较低。然后,在此示例中,就有机会改进估计量。
因此,鉴于您假设相同的估计量族和相同的损失函数以及假设,我对您的问题的回答是肯定的。