OLS是蓝色的。但是,如果我不在乎无偏和线性怎么办?


14

高斯-马尔可夫定理告诉我们,OLS估计量是线性回归模型的最佳线性无偏估计量。

但是,假设我不在乎线性和无偏性。那么,对于线性回归模型,是否还有其他(可能是非线性/有偏的)估计量,在高斯-马尔可夫假设或其他一些一般假设下效率最高?

当然,有一个标准的结果:如果除高斯-马尔可夫假设之外,我们还假设误差是正态分布的,则OLS本身就是最佳的无偏估计量。对于其他一些特定的误差分布,我可以计算相应的最大似然估计量。

但是我想知道在某些相对通用的情况下是否存在某种比OLS更好的估计器?

Answers:


18

入门级统计课程通常采用无偏估计,因为它们是:1)经典,2)易于数学分析。Cramer-Rao下限是2)的主要工具之一。除了无偏估计之外,还有可能会有所改善。偏差方差折衷是统计中的一个重要概念,用于了解偏差估计如何比无偏差估计更好。

不幸的是,有偏估计量通常更难分析。在回归分析中,过去40年中的许多研究都与偏向估计有关。这始于山脊回归(Hoerl and Kennard,1970)。有关评论和见解,请参见弗兰克和弗里德曼(1996)伯尔和弗莱(2005)

p3

偏差差异问题的重要部分是确定应如何权衡偏差。 没有单一的“最佳”估算器。在过去的十年中,稀疏性一直是研究的重要组成部分。参见Hesterberg等。(2008)进行部分审查。

Y


1
@chl借调了。很棒的概述。
mpiktas 2011年

1
我最喜欢的可允许估计量之一:参数空间中一个任意选择的点,这不是不可能的值:)
概率

9

我不知道您对贝叶斯估计是否满意?如果是,则可以根据损失函数获得不同的贝叶斯估计值。布莱克韦尔的一个定理指出,贝叶斯估计永远不会无偏。决策理论论证指出,每条可容许规则((或与之比较的每条其他规则,都有一个参数值,对于该参数值,当前规则的风险(严格地)小于与之相对应的规则的风险)。被比较))是一个(通用的)贝叶斯规则。

James-Stein估计量是另一类估计量(可以通过贝叶斯方法渐近导出),在许多情况下,它们比OLS更好。

在许多情况下OLS都是不可接受的,James-Stein Estimator就是一个例子。(也称为斯坦因悖论)。


感谢您的指导。将需要访问库以了解所有内容。
Jyotirmoy Bhattacharya 2010年

1
@suncoolsu,这不是可接纳性的典型定义。您给的那一个(强得多)。可接受的估计量不是统一控制的,即对于与之比较的所有其他规则,存在一个参数值,对于该参数,当前规则的风险(严格)小于该规则所面临的风险正在比较。相反地,不予受理估计是(弱)由一个主导一些其他估计器,用于每一个所述参数的值和严格支配用于至少由相同估计一个值。
主教

@枢机主教。你是对的。我会改正的。
suncoolsu 2011年

@cardinal。使用数学比简单地用英语简化要容易得多。但是,这只是我。感谢您的纠正@cardinal
suncoolsu 2011年

1
@suncoolsu渐近无偏与通常的“无偏”含义非常不同。任何合理的估计都应渐近无偏。还有一点需要注意:关于可估计量的陈述不应该相反吗?即每个可接受的估计量都是广义贝叶斯。
vqv

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.