对于线性模型,OLS解决方案为参数提供了最佳的线性无偏估计量。
当然,我们可以将偏差换成较低的方差,例如岭回归。但是我的问题是关于没有偏见。是否还有其他一些较常用的估计器,它们没有偏倚但与OLS估计的参数相比具有更高的方差?
如果我有一个庞大的数据集,我当然可以对其进行二次采样,并用较少的数据估计参数,并增加方差。我认为这可能是有用的。
这更多是一个修辞性的问题,因为当我阅读有关BLUE估计量的信息时,没有提供更糟糕的选择。我猜想提供更差的选择还可以帮助人们更好地理解BLUE估计器的功能。
对于线性模型,OLS解决方案为参数提供了最佳的线性无偏估计量。
当然,我们可以将偏差换成较低的方差,例如岭回归。但是我的问题是关于没有偏见。是否还有其他一些较常用的估计器,它们没有偏倚但与OLS估计的参数相比具有更高的方差?
如果我有一个庞大的数据集,我当然可以对其进行二次采样,并用较少的数据估计参数,并增加方差。我认为这可能是有用的。
这更多是一个修辞性的问题,因为当我阅读有关BLUE估计量的信息时,没有提供更糟糕的选择。我猜想提供更差的选择还可以帮助人们更好地理解BLUE估计器的功能。
Answers:
我想到的一个例子是一些GLS估计器,它对观测值进行了不同的加权,尽管在满足高斯-马可夫假设时并不必要(统计学家可能不知道这种情况,因此仍然适用GLS)。
考虑在一个常数上,回归的情况(易于归纳为一般GLS估计量)。这里,被假定为从与平均群体的随机样本和方差。
然后,我们知道,OLS就是β = ˉ Ÿ,样本均值。为了强调这一点,每个观察与重量加权1 / Ñ,写为
β = ñ Σ我= 1 1
现在,考虑其可被写为另一种估计
这是使用以下代码创建的模拟仿真的图形化插图:
编辑:响应@kjetilbhalvorsen和@RichardHardy的建议,我还包括的中位数,位置参数pf at(4)分布的MLE(我得到警告In log(s) : NaNs produced,我没有进一步检查)和Huber的估计量。情节。
BLUE属性并不能立即暗示后三个参数是否优于OLS解决方案(至少对我而言不是),因为它们是否是线性估计量并不明显(我也不知道MLE和Huber是否无偏)。
library(MASS)
n <- 100
reps <- 1e6
epsilon <- 0.5
w <- c(rep((1+epsilon)/n,n/2),rep((1-epsilon)/n,n/2))
ols <- weightedestimator <- lad <- mle.t4 <- huberest <- rep(NA,reps)
for (i in 1:reps)
{
y <- rnorm(n)
ols[i] <- mean(y)
weightedestimator[i] <- crossprod(w,y)
lad[i] <- median(y)
mle.t4[i] <- fitdistr(y, "t", df=4)$estimate[1]
huberest[i] <- huber(y)$mu
}
plot(density(ols), col="purple", lwd=3, main="Kernel-estimate of density of OLS and other estimators",xlab="")
lines(density(weightedestimator), col="lightblue2", lwd=3)
lines(density(lad), col="salmon", lwd=3)
lines(density(mle.t4), col="green", lwd=3)
lines(density(huberest), col="#949413", lwd=3)
abline(v=0,lty=2)
legend('topright', c("OLS","weighted","median", "MLE t, 4 df", "Huber"), col=c("purple","lightblue","salmon","green", "#949413"), lwd=3)