有偏最大似然估计量背后的直觉推理


25

我对有偏的最大似然(ML)估计量感到困惑。整个概念的数学知识对我来说很清楚,但我无法弄清其背后的直观原因。

给定某个数据集具有来自分布的样本,而该样本集本身是我们要估计的参数的函数,则ML估计器会得出最有可能产生该数据集的参数值。

我不能从以下角度直观地理解偏差ML估计器:参数的最可能值如何在偏向错误值的情况下预测参数的实际值?



我认为这里重点放在偏见上可以使这个问题与提议的重复问题区分开,尽管它们肯定是密切相关的。
银鱼

Answers:


14

ML估算器会得出最有可能在数据集中出现的参数值。

给定假设,ML估计量就是最有可能产生数据集的参数值。

我无法从直觉上理解偏向ML估计器,即“参数的最可能值如何通过偏向错误值来预测参数的实际值?”

偏差是关于样本分布的期望。“最有可能产生数据”与对采样分布的期望无关。为什么期望他们在一起?

令人惊讶的是它们不一定对应的基础是什么?

我建议您考虑一些简单的MLE案例,并思考在这些特定案例中差异是如何产生的。

例如,考虑在上的均匀观测。最大的观测值(不一定)不大于参数,因此参数只能采用至少与最大的观测值一样大的值。(0,θ)

当考虑的似然性时,(显然)θ越接近最大观测值,它的可能性就越大。因此在最大观察值将其最大化;显然,这是对θ的估计,它最大程度地增加了获得样本的机会:θθθ

在此处输入图片说明

θθ

U(0,θnn+1个θθ^=n+1nX(nX(n

这位于MLE的右侧,因此可能性较低。


感谢您的回答。关于第一部分,我错误地表达了自己。我基本上是说你的意思。根据您对第二部分的回答,我是否可以得出结论,给定从同一分布中得出的另一组数据,ML估计量是否会导致不同的偏差?既然您说过ML估算器是“最有可能”产生数据的估算器。如果我们更改数据,则其他估计器很可能会产生它。那是对的吗?
ssah 2014年

如果人口分布的形式不变,则估计量不变。其他估计将使用不同的样本得出,其偏倚的数量通常也会有所不同-偏倚通常与样本数量有关,即使总体相同。...(ctd)
Glen_b-恢复莫妮卡2014年

(ctd)... ñθ

很好地利用规范示例来了解无偏估计与ML估计之间的差异。
jwg 2014年

6

β中号大号Ëβββ中号大号Ë

ññ-1个


对不起,第一部分的错误。我编辑并修复了它。但是关于您所说的MLE,为什么在非渐近情况下首先偏向于MLE?
ssah 2014年

2
“更好”取决于您所看的内容;贝塞尔的校正使其无偏,但是无偏本身并不会自动“更好”(例如,MSE会更糟;为什么我更喜欢无偏而不是较小的MSE?)。塞比斯·帕里布斯Ceteris paribus)可能会被认为是公正的,但不幸的是,塞斯里斯不会是帕里布斯
Glen_b-恢复莫妮卡2014年

我的理解是,通过MLE和Cramer-Rao下限之间的关系,可以证明无偏估计量是最佳无偏的。
Dimitriy V. Masterov 2014年

有人告诉我@ssah,这是因为我们使用的是样本均值,而不是公式中的真实均值。老实说,我从来没有真正真正地理解过这种解释,因为如果均值的MLE估计无偏,为什么这会出错?我通常会通过模拟来解决我的疑问。
Dimitriy V. Masterov 2014年

5

这是我的直觉。

偏差是对准确性的度量,但也有精度的概念。

在此处输入图片说明

在理想的世界中,我们将获得准确而又准确的估算值,即总是能引起轰动。不幸的是,在我们不完美的世界中,我们必须在准确性和精度之间取得平衡。有时我们可能会觉得我们可以给出一些精度来获得更高的精度:我们一直在权衡。因此,估计量有偏差的事实并不意味着它很糟糕:它可能更精确。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.