概率收敛与几乎确定的收敛


67

我从没真正摸索过这两种收敛方法之间的区别。(或者,实际上,是任何一种不同类型的收敛,但是由于大数的弱定律和强定律,我特别提到了这两种。)

当然,我可以引用每一个的定义,并举例说明它们的不同之处,但是我仍然不太明白。

了解差异的好方法是什么?为什么差异很重要?是否有一个特别令人难忘的例子,区别在于它们?



Answers:


67

在我看来,差异很重要,但主要是出于哲学原因。假设您有一些设备,它会随着时间的推移而改善。因此,每次使用设备时,发生故障的可能性都比以前小。

概率收敛表示,随着使用次数达到无穷大,失败的机会变为零。因此,在多次使用设备后,您可以确信它可以正常工作,但仍可能会失败,这是非常不可能的。

融合几乎肯定会更强一点。它说失败的总数是有限的。也就是说,如果随着使用次数达到无穷大而计算失败次数,则将得到有限的次数。其影响如下:随着您越来越多地使用设备,经过一定次数的使用,您将耗尽所有故障。从此设备将完美运行

正如Srikant所指出的,您实际上并不知道何时用尽所有故障,因此从纯粹的实际角度来看,两种融合模式之间并没有太大的区别。

但是,我个人感到非常高兴的是,例如,存在强而有力的定律,而不仅仅是弱定律。因为现在,进行平均速度可以证明进行光速实验的科学依据。至少从理论上讲,在获得足够的数据之后,您可以任意接近真实的光速。平均过程中不会有任何失败(但是不可能)。

让我澄清一下“平均过程中的失败(但不太可能)”的意思。任意选择。你获得Ñ估计X 1X 2... X Ñ光(或一些其它量)的速度的,它有一些`真”值,即μ。您计算平均值 S n = 1δ>0ñX1个X2Xñμ 正如我们获得更多的数据(Ñ增加),我们可以计算小号ñ每个Ñ=12...。弱法律上说(下对某些假设Xñ)的概率 P|小号ñ-μ|>δ0 作为ñ转到。该法强说的次数是| 小号ñ

小号ñ=1个ñķ=1个ñXķ
ñ小号ññ=1个2Xñ
P|小号ñ-μ|>δ0
ñ大于 δ是有限的(概率为1)。也就是说,如果我们定义指示符函数| 小号ñ - μ | > δ 返回一个当 | 小号ñ - μ | > δ,否则为零,然后 Σ ñ = 1| 小号ñ - μ | > δ 收敛。这使您对 S n的值充满信心|小号ñ-μ|δ一世|小号ñ-μ|>δ|Snμ|>δ
n=1I(|Snμ|>δ)
Sn,因为它保证(即,概率为1)存在某个有限,使得| 小号ñ - μ | 对于所有n > n 0 < δ(即,对于n > n 0,平均值永远不会失败)。请注意,法律薄弱并不能提供此类保证。n0|Snμ|<δn>n0n>n0

1
谢谢,我喜欢无穷系列观点的融合!
raegtin

1
我认为您的意思是可数的,不一定一定是有限的,是吗?还是我与积分混合。
罗伊2013年

更准确地说,它发生(或不发生)的事件集的度量为零->发生概率为零。
罗伊2013年

ñ0ñ0

33

我知道这个问题已经回答了(我认为很好),但是这里有一个不同的问题它的评论@NRH提到了图形说明,而不是将图片放在那里似乎更适合把它们放在这里。

所以,这里。它不像R包那么酷。但是它是独立的,不需要订阅JSTOR。

X一世=±1个

小号ññ=1个ñ一世=1个ñX一世ñ=1个2

强数定律

该SLLN(收敛几乎肯定)说,我们可以100%肯定曲线延伸起飞的权利最终会在某个有限的时间内,完全在带之内就会永远之后(右侧)。

下面是用于生成该图形的R代码(为简洁起见,省略了图形标签)。

n <- 1000;  m <- 50; e <- 0.05
s <- cumsum(2*(rbinom(n, size=1, prob=0.5) - 0.5))
plot(s/seq.int(n), type = "l", ylim = c(-0.4, 0.4))
abline(h = c(-e,e), lty = 2)

弱数定律

ñ

紧随其后的是图表的R代码(再次跳过标签)。

x <- matrix(2*(rbinom(n*m, size=1, prob=0.5) - 0.5), ncol = m)
y <- apply(x, 2, function(z) cumsum(z)/seq_along(z))
matplot(y, type = "l", ylim = c(-0.4,0.4))
abline(h = c(-e,e), lty = 2, lwd = 2)

6

我了解如下

概率收敛

随机变量序列等于目标值的概率渐近地减小并且接近0,但实际上从未达到0。

几乎可以收敛

随机变量的序列将渐近等于目标值,但是您无法预测它将在什么时候发生。

维基既有的一些例子,这应有助于澄清上述(尤其见收敛的概率在上下文中和几乎处处收敛的背景下,慈善的例子中,弓箭手的例子)。

从实际的角度来看,概率收敛就足够了,因为我们并不特别在乎不太可能发生的事件。例如,估计量的一致性本质上是概率收敛。因此,当使用一致的估计时,我们隐含地承认一个事实,即在大样本中,我们的估计与真实值相差甚远的可能性很小。我们生活在概率收敛的“缺陷”中,因为我们知道,渐近地估计量远离事实的概率很小。


尝试编辑的人认为这应为“随机变量序列不等于目标值的概率...”。
gung

“随机变量序列等于目标值的概率渐近地减小并且接近于0,但实际上从未达到0。” 是不是可能永远不会真正达到0?
Jyotish罗宾

@gung等于目标值的概率接近1或不等于目标值的概率接近0。当前定义不正确。
Undertherainbow

5

如果您喜欢视觉上的解释,美国统计学家(American Statistician)上有一篇关于该主题的不错的“教师角”文章(以下引用)。作为奖励,作者提供了R包以促进学习。

@article{lafaye09,
  title={Understanding Convergence Concepts: A Visual-Minded and Graphical Simulation-Based Approach},
  author={Lafaye de Micheaux, P. and Liquet, B.},
  journal={The American Statistician},
  volume={63},
  number={2},
  pages={173--178},
  year={2009},
  publisher={ASA}
}

1

最后一个人解释得很好。如果采用概率为1 / n的随机变量Xn = 1序列,否则为零。可以很容易地看到限制,使其收敛到零概率,但是几乎不能确定收敛。正如他所说,概率并不在乎我们可能会一路走下去。几乎可以肯定。

几乎可以肯定地暗示着概率趋同,但不是相反吗?


5
欢迎来到@ Tim-Brown网站,感谢您在此处回答问题的帮助。需要注意的一件事是,最好通过应答者的用户名来识别其他答案,“最后一个家伙”不会很有效。例如,随着人们的投票,该列表将随着时间重新排序。您可能需要阅读我们的常见问题解答
gung

0

有助于我理解差异的一件事是以下等价

Pñ|Xñ-X|=0=1个⇐⇒ñSUP> =ñ|X-X|>ϵ=0 ϵ>0

比较随机收敛:

ñP|Xñ-X|>ϵ=0 ϵ>0

当将上等值的右侧与随机收敛进行比较时,我认为差异变得更加明显。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.