根据要求,我说明了使用mtcars
数据的简单回归:
fit <- lm(mpg~hp, data=mtcars)
summary(fit)
Call:
lm(formula = mpg ~ hp, data = mtcars)
Residuals:
Min 1Q Median 3Q Max
-5.7121 -2.1122 -0.8854 1.5819 8.2360
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 30.09886 1.63392 18.421 < 2e-16 ***
hp -0.06823 0.01012 -6.742 1.79e-07 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 3.863 on 30 degrees of freedom
Multiple R-squared: 0.6024, Adjusted R-squared: 0.5892
F-statistic: 45.46 on 1 and 30 DF, p-value: 1.788e-07
的均方误差(MSE)是残差的平方的平均值:
# Mean squared error
mse <- mean(residuals(fit)^2)
mse
[1] 13.98982
均方根误差(RMSE)就是MSE的平方根:
# Root mean squared error
rmse <- sqrt(mse)
rmse
[1] 3.740297
残差平方和(RSS)是残差平方的总和:
# Residual sum of squares
rss <- sum(residuals(fit)^2)
rss
[1] 447.6743
残留标准误差(RSE)是(RSS /自由度)的平方根:
# Residual standard error
rse <- sqrt( sum(residuals(fit)^2) / fit$df.residual )
rse
[1] 3.862962
相同的计算,因为我们之前已经计算过,所以简化了rss
:
sqrt(rss / fit$df.residual)
[1] 3.862962
回归(和其他预测分析技术)上下文中的术语“ 测试错误”通常是指根据与训练数据不同的测试数据计算测试统计量。
换句话说,您可以使用一部分数据(通常为80%的样本)来估计模型,然后使用保留样本来计算误差。再次说明一下,mtcars
这次我使用了80%的示例
set.seed(42)
train <- sample.int(nrow(mtcars), 26)
train
[1] 30 32 9 25 18 15 20 4 16 17 11 24 19 5 31 21 23 2 7 8 22 27 10 28 1 29
估计模型,然后使用保留数据进行预测:
fit <- lm(mpg~hp, data=mtcars[train, ])
pred <- predict(fit, newdata=mtcars[-train, ])
pred
Datsun 710 Valiant Merc 450SE Merc 450SL Merc 450SLC Fiat X1-9
24.08103 23.26331 18.15257 18.15257 18.15257 25.92090
将原始数据和预测合并到一个数据帧中
test <- data.frame(actual=mtcars$mpg[-train], pred)
test$error <- with(test, pred-actual)
test
actual pred error
Datsun 710 22.8 24.08103 1.2810309
Valiant 18.1 23.26331 5.1633124
Merc 450SE 16.4 18.15257 1.7525717
Merc 450SL 17.3 18.15257 0.8525717
Merc 450SLC 15.2 18.15257 2.9525717
Fiat X1-9 27.3 25.92090 -1.3791024
现在以常规方式计算您的测试统计信息。我说明了MSE和RMSE:
test.mse <- with(test, mean(error^2))
test.mse
[1] 7.119804
test.rmse <- sqrt(test.mse)
test.rmse
[1] 2.668296
注意,该答案忽略了观测值的加权。