调整后的R平方在R中使用的确切公式是什么lm()
?我该怎么解释?
调整后的r平方公式
似乎存在一些公式来计算调整后的R平方。
- Wherry的公式:
- 麦克尼马尔公式:
- 洛德公式:
- 斯坦因公式:
教科书说明
- 根据菲尔德的教科书《使用R发现统计信息》(2012年,第273页),R使用了Wherry方程,“告诉我们如果该模型是从采样样本中得出的,则Y可以解释多少差异”。他没有给出Wherry的配方。他建议(手动)使用Stein的公式来检查模型的交叉验证程度。
- Kleiber / Zeileis,《应用计量经济学与R》(2008年,第59页)声称它是“ Theil的R平方调整后的值”,并且没有确切说明其解释与多个R平方的差异。
- Dalgaard在Introductory Statistics with R(2008,p。113)中写道:“如果[调整后的R平方]乘以100%,则可以解释为'%方差减少'”。他没有说这对应哪个公式。
我以前曾想并广泛地读到R平方会给模型增加其他变量而受到惩罚。现在,使用这些不同的公式似乎需要不同的解释。我还研究了有关堆栈溢出的一个相关问题(在单变量最小二乘回归中,多个R平方和调整R平方之间有什么区别?),以及UPenn的Wharton学校统计词典。
问题
- 哪个公式用于通过R调整的r平方
lm()
? - 我该怎么解释?
ans$adj.r.squared <- 1 - (1 - ans$r.squared) * ((n - df.int)/rdf)
:,其中ans $ r.squared = R ^ 2; n = n,rdf =残留df,df.int =截距df(0或1)。