什么是独立背后的直觉和,?


18

我希望有人提出一个论点,解释为什么随机变量 和( 具有标准正态分布的在统计上是独立的。MGF技术很容易证明这一事实,但是我发现这非常违反直觉。Y1=X2X1Y2=X1+X2Xi

因此,如果有任何直觉,我将不胜感激。

先感谢您。

编辑:下标不表示订单统计,而是来自标准正态分布的IID观察值。


什么是“ MGF技术”?
变形虫说恢复莫妮卡

@amoeba它是使用矩生成函数来确定随机变量的分布的。在我的情况下,我指的是定理该Y1Y2是独立的,当且仅当M(t1,t2)=M(t1,0)×M(0,t2)M(t1,t2)等于。选择任何其他技术,我相信您将获得相同的结果。E(et1Y1+t2Y2)
约翰·K,2014年

1
您可以在stats.stackexchange.com/questions/71260的密切相关的线程中找到一些见解。
ub

如果在每个X上加上一个常量,例如,您可能会通过考虑这些变量会发生什么而得到一些直觉。会发生什么,如果你乘每个X一个常数,说σμXXσ
RVL

Answers:


22

这是标准的正态分布数据: 第一坐标系中的散点图 请注意,分布是圆形对称的。

切换到Y 2 = X 1 + X 2时,可以有效地旋转和缩放轴,如下所示: 此新坐标系与原始坐标系具有相同的原点,并且轴正交的。由于圆对称性,变量在新坐标系中仍然是独立的。Y1=X2X1Y2=X1+X2旋转坐标系的散点图


4
即使X 2与单位法向边距相关,该结果也适用。因此,您的解释仅涵盖原始结果的一小部分。但是,这里的基本思想是合理的。X1X2
Glen_b-恢复莫妮卡2014年

1
@Glen_b,是的,您是对的。我想专注于一个简单的案例,因为JohnK似乎已经知道如何证明一般案例,但是缺乏直观的理解。
dobiwan 2014年

7

结果作品共同正常(即具有相关性,- 1 < ρ < 1),用共同的σ(X1,X2)1<ρ<1σ

如果您知道几个基本结果,那么这就是您所需要的:

在此处输入图片说明

dobiwan的方法本质上很好-只是结果比那里处理的案例更笼统。


3
+1可将所需结果简化为基本要素。对于具有不等方差的关节正态性的更一般情况,我将添加轴旋转,而不是±π
θ=12arctan(2ρσ1σ2σ12σ22)
隐含在X1X2X1+X2X1-X2产生独立的正态随机变量。±π4(X1,X2)(X1+X2.X1X2)
Dilip Sarwate 2014年

6

当你声称自己是真正的结果是不一般,甚至没有为案件真实一切所知道的是,X 2都具有相同的方差正常的随机变量,但结果确实保持了平常的状态的解释您稍后说:X1X2

下标不是指示顺序统计,而是来自标准正态分布的观察结果。

当然,此语句中最后几个词的通常解释是,X 2独立的 (正常)随机变量,因此共同是正常随机变量。X1X2

对于具有相同方差的联合正态随机变量,确实X 1 - X 2独立的(正态)随机变量(通常具有不相等的方差),对此最好给出直观的解释在Glen_b的回答中。对于X 1X 2也独立特殊情况 ,您已经接受的dobiwan答案是最简单的,并且确实揭示了轴的任何旋转,而不仅仅是± πX1+X2X1X2X1X2隐含在变换X1X2X1+X2X1-X2,将产生独立的随机变量。±π4(X1,X2)(X1+X2,X1X2)


一般说什么?在下面我要说的所有内容中,请记住,无论Y具有相同的方差,无论其他属性可能归因于它们。XY

如果Y是具有相同方差的任何随机变量(请注意:不一定是正态)X + YX - Y不相关的随机变量(即,它们的协方差为零)。这是因为协方差函数是双线性的cov X + Y X Y XYX+YXY 这里,我们使用以下事实:COVXX是刚刚方差VARXX(以及类似地用于ÿ),当然, COVÿX=COVXÿ。请注意,这个结果保存在XY ^是(略)正常的随机变量,但不一定联合

cov(X+Y,XY)=cov(X,X)cov(X,Y)+cov(Y,X)cov(Y,Y)=var(X)cov(X,Y)+cov(X,Y)var(Y)=0.
cov(X,X)var(X)XYcov(Y,X)=cov(X,Y)XY正常随机变量。(如果您不熟悉边缘正常性与联合正常性不同的概念,请参见 枢机主教的很好回答)。在当特殊情况Y ^共同 正常的(但不一定是独立的)正常的随机变量,所以是X + Y ^X - Ÿ联合正常的,因为它们的协方差为0X + Y ^X - Ÿ是独立的随机变量。XYX+YXY0X+YXY

2

X1,X2Y1Y20Y1,Y2

条件均值

X1+X2=yX1=x,X2=yxX1=yx,X2=x

X1 and X2 have identical distribution and X1+X2 is symmetric with respect to the indexing. Thus, for symmetry reasons, the conditional distribution X1Y2=y must be equal to the conditional distribution X2Y2=y. Hence, the conditional distributions also have the same mean, and

E(Y1Y2=y)=E(X1X2X1+X2=y)=E(X1X1+X2=y)E(X2X1+X2=y)=0.

(Caveat: I did not consider the possibility that the conditional mean might not exist.)

Constant conditional mean implies zero correlation/covariance

Intuition: correlation measures how much Y1 tends to increase when Y2 increases. If observing Y2 never changes our mean of Y1, Y1 and Y2 are uncorrelated.

Proof: By definition, covariance is

Cov(Y1,Y2)=E[(Y1E(Y1))(Y2E(Y2))]
to this expectation, we apply the law of iterated expectations: take the expectation of the conditional expectation conditional on Y2:
=E[E[(Y1E(Y1))(Y2E(Y2))Y2]]=E[(Y2E(Y2))E[Y1E(Y1)Y2]].
Recall that the conditional mean was shown to be independent of Y2 and thus the expression simplifies as
=E[(Y2E(Y2))E[Y1E(Y1)]]
but the inner expectation is 0 and we get
=E[(Y2E(Y2))×0]=0.

Independence

Just by assuming identical distributions for X1,X2, it was shown that Y1 and Y2 are uncorrelated. When X1,X2 are jointly normal (for example, iid. normal as in the question), their linear combinations Y1,Y2 are also jointly normal and thus uncorrelatedness implies independence.

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.