我的数据集()具有因变量(DV),五个独立的“基准”变量(P1,P2,P3,P4,P5)和一个独立的关注变量(Q)。
我为以下两个模型运行了OLS线性回归:
DV ~ 1 + P1 + P2 + P3 + P4 + P5
-> R-squared = 0.125
DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
-> R-squared = 0.124
即,添加预测变量Q减少了线性模型中解释的方差量。据我了解,这不应该发生。
明确地说,这些是R平方值,而不是调整后的R平方值。
我已经使用Jasp和Python的statsmodels验证了R平方值。
有什么理由可以看到这种现象吗?也许与OLS方法有关的东西?
1
数字问题?这些数字彼此之间非常接近……
@ user2137591这就是我的想法,但是我不知道如何验证这一点。在R-平方值的绝对差为0.000513569,这是小的,但不是该小。
—
蔡
缺少的值会自动删除吗?
—
generic_user