条件独立,没有相关性


2

我有一个关于基本计量经济学的问题。 考虑一下模型 $$ y_i = \ alpha + \ beta x_i + u_i $$

我理解线性回归模型的假设4表明

$$ [1] \ quad E(u | x)= 0 $$

但是,我经常看到这种情况写成:

$$ [2] \ quad E(ux)= 0 $$

这两件事情是否相同?我看到如果[1]和$ E(u)= 0 $那么我们得到[2];但是我不明白为什么[2]会暗示[1]。


注意[1]暗示[2], 即使没有条件$ E(u)= 0 $ 。实际上这种情况是由[1]暗示的。将迭代期望定律应用于[1]的LHS,得到$ E_x [E_u(u \ vert x)] = E(u)$。但由于$ E_u(u \ vert x)= 0 $ by [1],我们有$ E_x [E_u(u \ vert x)] = E_u(u)= E_x(0)= 0 $
Herr K.

我相信这是属于它的主题 交叉验证
Richard Hardy

Answers:


1

[2]并不暗示[1]。 [2]和$ E(u)= 0 $暗示$ cov(u,x)= 0 $,即约 线性独立 。 [1]更强,因为它指的是任何类型的依赖。

在对称域上显示这个的经典反例是$ x = u ^ 2 $。这些依赖但线性独立。

下面的R代码显示了这个:

set.seed(1)
u <- runif(100, min = -1, max = 1)
e <- rnorm(100, mean = 0, sd = 0.1)
x <- u^2 + e

plot(u,x)
abline(lm(x ~ u)) # Yields an R^2 of 0.006539

cov(u,x) # Yields 0.01206663

该图是黑线代表回归线的地方:

enter image description here

阅读更多相关信息 这里


0

[1]强于[2]。通过应用总概率期望定律和条件期望的性质,我们得到:$$ E(ux)= E(E(ux | x))= E(xE(u | x))$$ 因此[1]暗示[2],但[2]并不一定意味着[1]

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.