添加线性回归预测变量可减小R平方


10

我的数据集()具有因变量(DV),五个独立的“基准”变量(P1,P2,P3,P4,P5)和一个独立的关注变量(Q)。N10,000

我为以下两个模型运行了OLS线性回归:

DV ~ 1 + P1 + P2 + P3 + P4 + P5
                                  -> R-squared = 0.125

DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
                                  -> R-squared = 0.124

即,添加预测变量Q减少了线性模型中解释的方差量。据我了解,这不应该发生

明确地说,这些是R平方值,而不是调整后的R平方值。

我已经使用Jasp和Python的statsmodels验证了R平方值。

有什么理由可以看到这种现象吗?也许与OLS方法有关的东西?


1
数字问题?这些数字彼此之间非常接近……

@ user2137591这就是我的想法,但是我不知道如何验证这一点。在R-平方值的绝对差为0.000513569,这是小的,但不是小。

1
XtXŤXŤt

8
缺少的值会自动删除吗?
generic_user

1
0.000513569是一个非常小的数字:它是0.41%的变化。这很可能是一个数字问题。单簧管

Answers:


25

可能是因为您缺少的值Q会被自动删除吗?这将对样本产生影响,从而使两个回归不具有可比性。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.