32 对于回归问题,我已经看到人们使用“确定系数”(aka R平方)执行模型选择,例如,找到适当的惩罚系数以进行正则化。 但是,通常也使用“均方误差”或“均方根误差”作为回归精度的量度。 那么,这两者之间的主要区别是什么?是否可以将它们互换用于“规范化”和“回归”任务?每种方法在实践中的主要用途是什么,例如在机器学习,数据挖掘任务中? regression r-squared — 多拉蒙 source
40 R2=1−SSESSTR2=1−SSESST,其中是平方误差的总和(与回归线的残差或偏差),而是与受抚养人的均值的平方偏差之和。SSESSESSTSSTYY MSE=SSEn−mMSE=SSEn−m,其中是样本大小,是模型中参数的数量(包括截距,如果有的话)。nnmm R2R2是样本中预测度或拟合度的标准化度量。是总体中残差或非拟合方差的估计。从调整后的的最常用公式(针对人群的的估算值)中可以看出,这两个指标显然相关:MSEMSE R2R2R2R2 R2adj=1−(1−R2)n−1n−m=1−SSE/(n−m)SST/(n−1)=1−MSEσ2yRadj2=1−(1−R2)n−1n−m=1−SSE/(n−m)SST/(n−1)=1−MSEσy2。 — ttnphns source 2 我以为MSE是错误的平均值,这意味着MSE = SSE / n,在什么情况下我们使用MSE = SSE /(nm)?请解释。谢谢 — 辛科·布朗(Sincole Brans)2014年 @SincoleBrans请参阅en.wikipedia.org/wiki/Mean_squared_error的 “回归”部分。 — ttnphns 2014年 我有点困惑。martin-thoma.com/regression中的结果表明,使用R ^ 2的模型可以很好(与某些其他模型相比),而使用MSE的模型则不好。你能解释一下吗? — Martin Thoma