1
添加线性回归预测变量可减小R平方
我的数据集()具有因变量(DV),五个独立的“基准”变量(P1,P2,P3,P4,P5)和一个独立的关注变量(Q)。N≈10,000N≈10,000N \approx 10,000 我为以下两个模型运行了OLS线性回归: DV ~ 1 + P1 + P2 + P3 + P4 + P5 -> R-squared = 0.125 DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q -> R-squared = 0.124 即,添加预测变量Q减少了线性模型中解释的方差量。据我了解,这不应该发生。 明确地说,这些是R平方值,而不是调整后的R平方值。 我已经使用Jasp和Python的statsmodels验证了R平方值。 有什么理由可以看到这种现象吗?也许与OLS方法有关的东西?