Answers:
什么是之间的相关性之间的差异和和线性回归预测从?Y Y X
首先,一些相似之处:
第二,一些差异:
lm
和cor.test
在中进行R
,将产生相同的p值。
这是我在graphpad.com网站上发布的答案:
相关性和线性回归并不相同。考虑以下差异:
在线性回归的单个预测变量情况下,标准化斜率与相关系数具有相同的值。线性回归的优势在于,可以以一种方式描述关系,从而可以根据给定的预测变量的任何特定值,基于两个变量之间的关系预测预测变量的得分。尤其是线性回归给您的一条信息是,相关性不是截距,即预测变量为0时预测变量上的值。
简而言之-它们在计算上产生相同的结果,但是有更多的元素能够在简单的线性回归中解释。如果您只想简单地描述两个变量之间的关系的大小,请使用相关性-如果您希望根据特定值来预测或解释结果,则可能需要回归。
相关分析仅量化两个变量之间的关系,而忽略哪个是因变量和哪个是独立变量。但是在应用回归之前,您必须校准要检查哪个变量对另一个变量的影响。
到目前为止,所有给出的答案都提供了重要的见解,但不应忘记,您可以将一个参数转换为另一个参数:
因此,您可以通过缩放和移动它们的参数来相互转换。
R中的一个示例:
y <- c(4.17, 5.58, 5.18, 6.11, 4.50, 4.61, 5.17, 4.53, 5.33, 5.14)
x <- c(4.81, 4.17, 4.41, 3.59, 5.87, 3.83, 6.03, 4.89, 4.32, 4.69)
lm(y ~ x)
##
## Call:
## lm(formula = y ~ x)
##
## Coefficients:
## (Intercept) x
## 6.5992 -0.3362
(m <- cov(y, x) / var(x)) # slope of regression
## [1] -0.3362361
cor(y, x) * sd(y) / sd(x) # the same with correlation
## [1] -0.3362361
mean(y) - m*mean(x) # intercept
## [1] 6.599196
引用奥特曼(Altman DG)的话,“医学研究的实用统计学”,查普曼和霍尔,1991年,第321页:“相关将一组数据简化为一个与实际数据没有直接关系的数。回归是一种更有用的方法,结果显然与获得的测量结果有关。这种关系的强度是明确的,并且可以从置信区间或预测区间清楚地看到不确定性。”
相关性是关系强度的指标(仅一个数)。回归分析是对特定功能关系的适当性进行的分析(模型参数的估计及其重要性的统计检验)。相关的大小与回归预测的精确度有关。