假设是一个无偏估计。然后,当然是。 θë[ θ |θ]=θ
一个人如何向外行人解释呢?过去,我所说的是,如果对一堆求平均值,则随着样本数量的增加,您会更好地逼近。 θ
对我来说,这是有问题的。我认为我在这里实际描述的是这种渐近无偏的现象,而不是单纯地无偏的现象,即 其中\ hat {\ theta}可能取决于n。
那么,如何向外行人解释什么是无偏估计呢?
假设是一个无偏估计。然后,当然是。 θë[ θ |θ]=θ
一个人如何向外行人解释呢?过去,我所说的是,如果对一堆求平均值,则随着样本数量的增加,您会更好地逼近。 θ
对我来说,这是有问题的。我认为我在这里实际描述的是这种渐近无偏的现象,而不是单纯地无偏的现象,即 其中\ hat {\ theta}可能取决于n。
那么,如何向外行人解释什么是无偏估计呢?
Answers:
从技术上讲,当您说随着样本数量的增加,估算器越来越接近真实值时,您所描述的是(或者说其他)统计估算器的一致性或收敛性。这种收敛可以是概率收敛,即对于每个,或几乎确定收敛,表示。注意限制实际上是如何在内部P (LIM Ñ →交通∞ | θ ñ - θ | > ε )= 0在第二种情况下的概率。事实证明,后一种形式的收敛要强于另一种形式,但是两者本质上是同一件事,那就是随着收集更多样本,估计趋向于越来越接近我们所估计的事物。
这里的一个微妙的一点是,即使无论是在概率或几乎可以肯定,它不是一般的事实,,因此一致性并不表示您所建议的渐近无偏。在随机变量序列(是函数)和期望序列(是整数)之间移动时,必须小心。LIMÑ→交通∞È( θ Ñ)=θ
除了所有技术资料外,无偏仅表示。因此,当您向某人解释时,只需说,如果在相同条件下重复进行多次实验,则估算的平均值将接近真实值。
我不确定您是否会混淆一致性和公正性。
一致性:样本数量越大,估计量的方差越小。
无偏性:估计量的期望值等于参数的真实值
所以你的句子
如果平均一堆值的θ,样本容量越大,你会得到更好的近似值θ。
是不正确的。即使样本量变得无限大,无偏估计也会保持无偏估计,例如,如果您将均值估计为“平均+1”,则可以向样本中添加十亿个观测值,而估计仍不会为您提供真实价值。
在这里,您可以找到有关一致性和无偏见之间差异的更深刻的讨论。
@Ferdi已经为您的问题提供了明确的答案,但是让我们更正式一点。
令是来自分布的独立且均匀分布的随机变量的样本。您可能对估计未知但固定的量感兴趣,使用的估计器 是。由于是随机变量的函数,因此估计
也是一个随机变量。我们将偏见定义为
估计量无偏时。
用简单的英语说出来:我们正在处理随机变量,所以除非它是退化的,否则如果我们采用不同的样本,我们可以期望观察到不同的数据以及不同的估计。然而,我们可以预期的是“平均”估计在不同样本θ ñ将是“正确的”,如果估计量无偏。因此,这并不总是正确的,但“平均而言”它将是正确的。由于与数据相关的随机性,它根本不可能总是“正确”的。
正如其他人已经指出的那样,随着样本的增长,您的估计越来越“接近”估计的数量,即概率收敛
与估计量的一致性有关,而不是无偏见。仅凭公正性就无法告诉我们有关样本量及其与获得的估计值的关系的任何信息。此外,无偏估计量并非始终可用,也不总是优于有偏估计量。例如,在考虑了偏差-方差折衷之后,您可能愿意考虑使用偏差更大但方差较小的估算器-因此“平均”距离真实值会更远,但估算值(方差较小)会更多接近真实值,则在无偏估计的情况下。
首先,您必须将误解性偏见与统计性偏见区分开来,尤其是对于外行人而言。
使用中位数,均值或众数作为人口平均数的估计值的选择通常包含政治,宗教或科学理论的信念偏见。关于哪种估计量是平均值的最佳形式的计算与影响统计偏差的算法的类型不同。
克服方法选择偏差后,即可解决估算方法中的潜在偏差。首先,您必须选择一种可能存在偏差的方法,以及一种容易导致偏差的机制。
使用除以征服点的观点可能会更容易,在这种观点下,随着样本数量的变小,估计值显然会产生偏差。例如,当n从3下降到2到1时,样本扩展估计量中的n-1因子(vs'n'因子)变得很明显!
这完全取决于人的“外行”程度。