Questions tagged «consistency»

通常指的是随着样本量趋于无穷大而移至“正确”位置的统计过程的属性,主要是指随着样本量的变化,估计量收敛到真实参数值。也可用于Fisher一致性,即将估计值应用于完整总体时可以给出正确答案的属性。

3
一致估计和无偏估计之间有什么区别?
我真的很惊讶,似乎没有人问过这个问题... 在讨论估计量时,经常使用的两个术语是“一致”和“无偏”。我的问题很简单:有什么区别? 这些术语的精确技术定义相当复杂,很难直观理解它们的含义。我可以想象一个好的估计量,一个坏的估计量,但是我很难看到任何一个估计量如何满足一个条件而不能满足另一个条件。

1
是否有一个结果,当且仅当统计数据是平滑的时,提供引导程序才有效?
在整个过程中,我们假设统计量是某些数据的函数是从分布函数得出的;我们样本的经验分布函数是。因此,是被视为随机变量的统计量,而是该统计量的引导版本。我们使用作为KS距离θ (⋅ )θ(⋅)\theta(\cdot) ˚F ˚F θ (˚F )θ (X1个,… XñX1,…XñX_1, \ldots X_nFFFF^F^\hat{F}θ (˚F)θ(F)\theta(F)d∞θ (˚F^)θ(F^)\theta(\hat{F})d∞d∞d_\infty 如果统计信息是简单的线性统计信息,则对于引导程序的有效性有“ if and only if”结果。例如Mammen的定理1“引导程序何时起作用?” 如果用于某些任意函数则引导程序的作用是如果且仅当存在和使得 我们可以在其中将定义为样本的某些函数,并且ħñd∞[大号(θ( ˚F) -吨 Ñ),大号(θ(˚F)-吨Ñ)]→p0σÑ吨Ñd∞[L(θ(F)−tn)θ (˚F)= 1ñ∑ñi − 1Hñ( X一世)θ(F)=1个ñ∑一世-1个ñHñ(X一世)\theta(F) = \frac{1}{n} \sum_{i-1}^n h_n(X_i)HñHñh_nd∞[ L(θ (F^)− t^ñ),大号(θ (F)− tñ)] →p0d∞[大号(θ(F^)-Ť^ñ),大号(θ(F)-Ťñ)]→p0d_\infty\big[\mathscr{L}(\theta(\hat{F})-\hat{t}_n), \mathscr{L}(\theta(F)-t_n)\big] \underset{p}{\rightarrow} 0σñσñ\sigma_nŤñŤñt_n ^ 吨Ñ吨Ñ = È(吨 Ñ)d∞[ L(θ (F)− tñ),Ñ(0 …

1
不一致的估算器是否更可取?
一致性显然是自然而重要的属性估计量,但是在某些情况下,使用不一致的估计量比使用一致的估计数更好吗? 更具体地说,是否存在一个不一致估计量的示例,该估计量对于所有有限的(相对于某些合适的损失函数)都胜过一个合理的一致估计量?ññn


3
具有非零渐近方差的渐近一致性-它代表什么?
这个问题以前已经提出过,但是我想问一个具体的问题,试图得出一个可以澄清(和分类)它的答案: 在“穷人的无症状”中, (a)概率收敛为常数的一系列随机变量 与之相反 (b)一系列随机变量,其概率收敛于一个随机变量(因此分布于该变量)。 但是在“智者的渐近”中,我们也可以 (c)一系列随机变量,它们的概率收敛到一个常数,同时在极限处保持非零方差。 我的问题是(从下面我自己的探索性答案中窃取): 我们如何才能理解渐近一致但也具有非零的有限方差的估计量?这种差异反映了什么?它的行为与“通常的”一致估计量有何不同? 与(c)中描述的现象相关的线程(另请参见注释): 一致估计和无偏估计之间有什么区别? /stats/120553/convergence-of-an-estimator-with-infinite-variance 为什么渐近一致估计量在无穷大处没有零方差? 几乎可以确定收敛和极限方差为零


4
为什么我们需要一个估计量来保持一致?
我认为,我已经理解了一致估计量的数学定义。如果我错了纠正我: WnWnW_n如果则 W n是的一致估计量θθ\theta∀ϵ>0∀ϵ>0\forall \epsilon>0 limn→∞P(|Wn−θ|>ϵ)=0,∀θ∈Θlimn→∞P(|Wn−θ|>ϵ)=0,∀θ∈Θ\lim_{n\to\infty} P(|W_n - \theta|> \epsilon) = 0, \quad \forall\theta \in \Theta 其中,是参数空间。但我想了解估计量必须保持一致的必要性。为什么一个不一致的估计是不好的?你能给我一些例子吗?ΘΘ\Theta 我接受R或python中的模拟。

1
为什么对一致估计量的定义是如此?一致性的其他定义呢?
引用维基百科: 在统计中,一致估计量或渐近一致估计量是一个估计量-一种计算参数的规则-具有以下性质:随着所使用的数据点的数量无限增加,所得到的估计序列在概率上收敛于θ ^ *。θ ∗θ∗θ∗θ^*θ∗θ∗θ^* 为了使该语句更精确,让θ∗θ∗\theta^*为您要估计的真实参数的值,并让θ^(Sn)θ^(Sn)\hat\theta(S_n)为根据数据估算该参数的规则。然后,可以通过以下方式表达估计量一致性的定义: limn→∞Pr[|θ(Sn^)−θ∗|≥ϵ]=0limn→∞Pr[|θ(Sn^)−θ∗|≥ϵ]=0\lim_{n \to \infty} Pr[|\hat{\theta(S_{n}}) - \theta^*|\geq \epsilon ]=0 我的问题乍看之下似乎很肤浅,但它是:为什么用“一致性/一致性”一词来描述估算器的这种行为? 我之所以关心这一点,是因为从直觉上来说,一致性一词对我来说意味着不同的东西(或者至少对我来说似乎不同,也许可以证明它们是相等的)。让我通过一个例子告诉你这意味着什么。假设“您”始终是“好”(对于“好”的定义),则表示您每次有机会证明/向您证明自己是好时,您确实每次都向我证明自己是好人(或至少大部分时间)。 让我根据直觉来定义估计量的一致性。令“ you”为计算的函数,让“ good”表示您与真实估计值距离(在范式中,好,为什么不是)。那么对一致性的更好定义是: θ*升1θ^θ^\hat{\theta}θ∗θ∗\theta^*l1l1l_1 ∀n,∀Sn,Pr[|θ(Sn^)−θ∗|≥ϵ]&lt;δ∀n,∀Sn,Pr[|θ(Sn^)−θ∗|≥ϵ]&lt;δ\forall n,\forall S_n, Pr[|\hat{\theta(S_{n}}) - \theta^*|\geq \epsilon ] < \delta 即使一致性的定义可能不太有用,但对我来说定义一致性的方式对我来说更有意义,因为对于您投入到估算器任何训练/样本集,我将能够做得好,即我会一直做得很好。我知道,对所有n执行此操作有点不切实际(可能是不可能的),但是我们可以通过以下方式修正此定义:θ^θ^\hat\theta ∃n0,∀n≥n0,∀Sn,Pr[|θ(Sn^)−θ∗|≥ϵ]&lt;δ∃n0,∀n≥n0,∀Sn,Pr[|θ(Sn^)−θ∗|≥ϵ]&lt;δ\exists n_0, \forall n \geq n_0,\forall S_n, Pr[|\hat{\theta(S_{n}}) - \theta^*|\geq \epsilon ] < \delta 也就是说,对于足够大的n,我们的估计量不会比真实差(即,与“真相”相距不超过)(试图捕获您至少需要的直觉)一些例子可以学习/估计任何东西,一旦达到这个数字,如果估计量与我们尝试定义它的方式保持一致,则估计量在大多数情况下都会做得很好。ε θ * Ñ 0ϵϵ\epsilonϵϵ\epsilonθ∗θ∗\theta^*n0n0n_0 …


1
渐近无偏与一致性之间有什么区别?
彼此暗示吗?如果不是,是否意味着另一个?为什么/为什么不呢? 这个问题是针对我在此处发布的答案的评论而提出的。 尽管google搜索相关术语并没有产生看起来特别有用的东西,但我确实注意到了数学stackexchange 的答案。但是,我认为这个问题也适用于该网站。 阅读评论后进行编辑 相对于math.stackexchange答案,我正在做更深入的研究,涵盖了@whuber注释线程中处理的一些问题。另外,正如我所看到的,math.stackexchange问​​题表明一致性并不意味着渐近地无偏见,但是对于原因却没有太多解释。那里的OP还理所当然地认为渐近无偏并不意味着一致性,因此到目前为止,唯一的回答者并没有解决为什么这样做。

2
计算NBA投篮一致性
评估/确定NBA球员三分球命中率一致性的正确方法是什么?例如,我有一个球员的三分球命中率是37%,全年要进行200次尝试。 我正在考虑拍摄任意数量(例如20张)的3分滚动平均值。然后使用这些平均值确定与37%平均值的标准偏差。使用20张滚动的滚动样本大小只能使5%的拍摄准确率,但是我担心使用过多的拍摄不会显示出性能上的不一致。 有没有更好的方法来确定一致性?

1
非自由午餐定理和K-NN一致性
在计算学习中,NFL定理指出没有通用学习器。对于每种学习算法,都有一个分布使学习者输出具有大误差的假设,而且概率很高(尽管误差假设很低)。结论是,为了学习,必须限制假设的类别或分布。Devroye等人在他们的《模式识别的概率论》一书中证明了K近邻学习者的以下定理: 其中假设 μ 具有密度。如果 k → ∞ 和 k / n → 0 那么对于每一个 ϵ &gt; 0 , 都有 N, 对于所有 n &gt; N , st:P(Rñ− R∗&gt; ϵ )&lt; 2 e x p (− Cdñ ε2)假设 μ 具有密度。如果 ķ→∞ 和 ķ/ñ→0 然后每个 ϵ&gt;0, 有 ñ, 圣 对所有人 ñ&gt;ñ:P([Rñ-[R∗&gt;ϵ)&lt;2ËXp(-Cdñϵ2)\text{Assume } \mu …

2
最小二乘假设
假定以下线性关系: Yi=β0+β1Xi+uiYi=β0+β1Xi+uiY_i = \beta_0 + \beta_1 X_i + u_i,其中YiYiY_i是因变量,XiXiX_i的单个自变量和uiuiu_i误差项。 根据Stock&Watson(《计量经济学概论》;第4章),第三个最小二乘假设是XiXiX_i和的第四矩是uiuiu_i非零且有限的(0&lt;E(X4i)&lt;∞ and 0&lt;E(u4i)&lt;∞)(0&lt;E(Xi4)&lt;∞ and 0&lt;E(ui4)&lt;∞)(0<E(X_i^4)<\infty \text{ and } 0<E(u_i^4)<\infty)。 我有三个问题: 我不完全理解此假设的作用。如果该假设不成立,或者我们需要此假设进行推断,OLS是否有偏见且不一致? Stock和Watson写道:“这种假设限制了使用XiXiX_i或极大值进行观察的可能性uiuiu_i。” 但是,我的直觉是这种假设是极端的。如果我们有较大的离群值(例如第四矩很大),但是如果这些值仍然有限,我们会遇到麻烦吗?顺便说一句:离群值的基础定义是什么? 我们可以重新定义为:“ XiXiX_i和的峰度uiuiu_i是非零且有限的吗?”

1
EM算法是否始终如一地估计高斯混合模型中的参数?
我正在研究高斯混合模型,自己提出这个问题。 假设的基础数据从混合物产生高斯分布和他们每个人都有一个平均向量μ ķ ∈ [R p,其中1 ≤ ķ ≤ ķ和他们每个人都有相同的协方差矩阵Σ,并假定此Σ是对角矩阵。并假设混合比为1 / K,即每个簇具有相同的权重。ķKKμk∈Rpμk∈Rp\mu_k\in\mathbb{R}^p1≤k≤K1≤k≤K1\leq k\leq KΣΣ\SigmaΣΣ\Sigma1/K1/K1/K 因此,在这个理想的例子中,唯一的工作是估计均值向量μ ķ ∈ [R p,其中1 ≤ ķ ≤ ķ和共方差矩阵Σ。KKKμk∈Rpμk∈Rp\mu_k\in\mathbb{R}^p1≤k≤K1≤k≤K1\leq k\leq KΣΣ\Sigma 我的问题是:如果我们用EM算法,我们将能够始终如一地估计和Σ,即,当样本大小ñ →交通∞,将EM算法产生的估计实现的真正价值μ ķ和Σ?μkμk\mu_kΣΣ\Sigman→∞n→∞n\rightarrow\inftyμkμk\mu_kΣΣ\Sigma
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.