为什么对一致估计量的定义是如此?一致性的其他定义呢?
引用维基百科: 在统计中,一致估计量或渐近一致估计量是一个估计量-一种计算参数的规则-具有以下性质:随着所使用的数据点的数量无限增加,所得到的估计序列在概率上收敛于θ ^ *。θ ∗θ∗θ∗θ^*θ∗θ∗θ^* 为了使该语句更精确,让θ∗θ∗\theta^*为您要估计的真实参数的值,并让θ^(Sn)θ^(Sn)\hat\theta(S_n)为根据数据估算该参数的规则。然后,可以通过以下方式表达估计量一致性的定义: limn→∞Pr[|θ(Sn^)−θ∗|≥ϵ]=0limn→∞Pr[|θ(Sn^)−θ∗|≥ϵ]=0\lim_{n \to \infty} Pr[|\hat{\theta(S_{n}}) - \theta^*|\geq \epsilon ]=0 我的问题乍看之下似乎很肤浅,但它是:为什么用“一致性/一致性”一词来描述估算器的这种行为? 我之所以关心这一点,是因为从直觉上来说,一致性一词对我来说意味着不同的东西(或者至少对我来说似乎不同,也许可以证明它们是相等的)。让我通过一个例子告诉你这意味着什么。假设“您”始终是“好”(对于“好”的定义),则表示您每次有机会证明/向您证明自己是好时,您确实每次都向我证明自己是好人(或至少大部分时间)。 让我根据直觉来定义估计量的一致性。令“ you”为计算的函数,让“ good”表示您与真实估计值距离(在范式中,好,为什么不是)。那么对一致性的更好定义是: θ*升1θ^θ^\hat{\theta}θ∗θ∗\theta^*l1l1l_1 ∀n,∀Sn,Pr[|θ(Sn^)−θ∗|≥ϵ]<δ∀n,∀Sn,Pr[|θ(Sn^)−θ∗|≥ϵ]<δ\forall n,\forall S_n, Pr[|\hat{\theta(S_{n}}) - \theta^*|\geq \epsilon ] < \delta 即使一致性的定义可能不太有用,但对我来说定义一致性的方式对我来说更有意义,因为对于您投入到估算器任何训练/样本集,我将能够做得好,即我会一直做得很好。我知道,对所有n执行此操作有点不切实际(可能是不可能的),但是我们可以通过以下方式修正此定义:θ^θ^\hat\theta ∃n0,∀n≥n0,∀Sn,Pr[|θ(Sn^)−θ∗|≥ϵ]<δ∃n0,∀n≥n0,∀Sn,Pr[|θ(Sn^)−θ∗|≥ϵ]<δ\exists n_0, \forall n \geq n_0,\forall S_n, Pr[|\hat{\theta(S_{n}}) - \theta^*|\geq \epsilon ] < \delta 也就是说,对于足够大的n,我们的估计量不会比真实差(即,与“真相”相距不超过)(试图捕获您至少需要的直觉)一些例子可以学习/估计任何东西,一旦达到这个数字,如果估计量与我们尝试定义它的方式保持一致,则估计量在大多数情况下都会做得很好。ε θ * Ñ 0ϵϵ\epsilonϵϵ\epsilonθ∗θ∗\theta^*n0n0n_0 …