如果调整后的R平方预测模型更好,为什么调整后的R平方小于R平方?


15

据我了解,R2解释了模型对观测结果的预测程度。调整后的R2是考虑更多观察值(或自由度)的R 2。那么,调整后的R2可以更好地预测模型吗?那为什么它小于R2呢?看来应该经常更多。

Answers:


30

表示自变量和因变量之间的线性关系。定义为 1 S S ER2是平方误差的总和除以平方总和。 SSTO=SSE+SSR,它们是回归平方的总误差和总和。随着添加自变量,SSR将继续上升(并且由于SSTO是固定的),无论您添加的变量有多有价值,SSE都会下降并且R2会持续上升。1SSESSTOSSTO=SSE+SSRSSRSSTOSSER2

调整后的试图说明统计收缩。具有大量预测变量的模型在样本中的性能往往优于在样本外进行测试的性能。调整后的R 2会 “惩罚”您添加无法改善现有模型的额外预测变量。这对选择模型很有帮助。对于一个预测变量,调整后的R 2等于R 2。添加变量时,它会小于R 2R2R2R2R2R2


尚不清楚调整后的R平方如何实现尖锐的特性。也就是说,公式是什么,它如何引起特性?
Alexey Voytenko,2015年

调整R ^ 2 = 1-((n -1)/(n-k -1))(1-R ^ 2)
登山者

其中k =独立变量#,n =#观测值
mountainclimber

试图考虑统计上的萎缩 -也许是过度拟合?
理查德·哈迪

-1

R ^ 2解释了线性回归模型中因变量(Y)的变化比例,而因变量(X)则说明了变化比例。

调整后,R ^ 2表示线性回归模型中因变量(Y)的变化比例,由超过1个自变量(X)解释。


1
您在“独立变量”和“超过1个独立变量”之间的区别尚不清楚。另外,从下面引用安迪的话:“您并没有真正在以前提供的信息中添加新信息。”
变形虫说恢复莫妮卡

-2

即使添加与因变量无关的变量,R-Squared也会增加,但是调整后的R-Squared会解决此问题,因为每当您添加与因变量无关的变量时,R-Squared都会减少,因此在照顾好之后减少。


3
Given that this question already has an accepted answer, this should be more of a comment. You don't really add new information to what was provided before.
Andy
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.