Questions tagged «efficiency»

7
在小样本中矩方法可以击败最大似然性的示例?
最大似然估计器(MLE)渐近有效。我们看到实际的结果是,即使在小样本量下,它们通常也比矩量法(MoM)估计(当它们不同时)要好 在这里,“优于”是指在两者均无偏的情况下通常具有较小的方差,并且更一般地,通常具有较小的均方误差(MSE)。 问题出现了,但是: 在小样本中,MoM是否能击败MLE(例如MSE)? (在这种情况下,不是奇数/简并的情况-即考虑到ML存在的条件/渐近有效保持) 接下来的问题将是“小可以多大?” -也就是说,如果有示例,是否仍然有一些示例在相对较大的样本量(甚至所有有限的样本量)下仍然有效? [我可以找到一个有偏估计器的示例,它可以在有限样本中击败ML,但它不是MoM。] 追溯性地添加注释:我在这里的重点主要是单变量情况(这实际上是我潜在的好奇心来自何处)。我不想排除多变量情况,但我也不想特别涉入James-Stein估计的扩展讨论。

2
为什么
如果√,则参数θ的估计量序列渐近正态üñUnU_nθθ\theta。(来源)然后将v称为Un的渐近方差。如果此方差等于Cramer-Rao界,则我们说估计量/序列渐近有效。ñ--√(Uñ- θ )→ Ñ(0 ,v )n(Un−θ)→N(0,v)\sqrt{n}(U_n - \theta) \to N(0,v)vvvüñüñU_n 问题:为什么使用特别是 n?ñ--√ñ\sqrt{n} 我知道,对于样本均值,,因此该选择将其标准化。但是,由于上述定义适用于比样本均值多,为什么我们仍然选择通过规范化√V一个- [R (X¯)= σ2ñV一种[R(X¯)=σ2ñVar(\bar{X}) = \frac{\sigma^2}{n}。ñ--√ñ\sqrt{n}

2
对于什么(对称)分布,样本意味着比样本中位数更有效的估计器?
我一直认为,样本中位数比样本均值对集中趋势的度量更为可靠,因为它忽略了离群值。因此,我很惊讶地得知(在另一个问题中),对于从正态分布中抽取的样本,样本均值的方差小于样本中位数的方差(至少对于大)。nñn 我从数学上理解为什么这是真的。有没有一种“哲学的”方式看待这一点,从而有助于直觉何时使用中位数而不是其他分布的均值? 是否有数学工具可以帮助快速回答特定分布的问题?

3
为什么对于正态分布数据,Wilcoxon检验的渐进相对效率与Student的t检验相比?
众所周知,如果数据来自正态分布总体,则Wilcoxon符号秩检验的渐近相对效率(ARE)与Student t检验相比为。基本的一样本测试和两个独立样本的变体(Wilcoxon-Mann-Whitney U)都是如此。对于正常数据,与ANOVA F检验相比,它也是Kruskal-Wallis检验的ARE 。3π≈0.9553π≈0.955\frac{3}{\pi} \approx 0.955 这个显着的结果(对我来说,是ππ\pi的“ 最意外的外观之一 ”)和非常简单的结果是否有深刻的,显着的或简单的证明?

2
在异方差下OLS渐近有效
我知道在线性回归设置下,OLS是无偏的,但在异方差下效率不高。 在维基百科 http://en.wikipedia.org/wiki/Minimum_mean_square_error MMSE估计量是渐近无偏的,并且其分布收敛到正态分布: ,其中I(x)是x的Fisher信息。因此,MMSE估计器是渐近有效的。n−−√(x^−x)→dN(0,I−1(x))ñ(X^-X)→dñ(0,一世-1个(X))\sqrt{n}(\hat{x} - x) \xrightarrow{d} \mathcal{N}\left(0 , I^{-1}(x)\right) MMSE被认为是渐近有效的。我在这里有些困惑。 这是否意味着OLS在有限样本中无效,但在异方差下渐近有效? 对当前答案的批评:到目前为止,提出的答案还没有解决限制分布的问题。 提前致谢
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.