Questions tagged «correlation»

一对变量之间线性关联程度的度量。

2
尽管具有正态性假设,为什么等级的皮尔逊相关性仍然有效?
我目前正在阅读有关Pearson相关性的假设。随后的t检验的一个重要假设似乎是两个变量都来自正态分布。如果他们不这样做,则提倡使用替代措施,例如Spearman rho。Spearman相关性的计算就像Pearson相关性一样,仅使用X和Y的等级而不是X和Y本身,对吗? 我的问题是:如果需要将输入到Pearson相关中的变量进行正态分布,那么即使输入变量是等级,为什么Spearman相关性的计算仍然有效?我的排名肯定不是来自正态分布... 到目前为止,我唯一得出的解释是,对rho的重要性的检验可能与Pearson相关t检验的检验有所不同(以不需要正态性的方式),但是到目前为止,我还没有找到公式。但是,当我运行一些示例时,除最后几位数字外,等级的Phoson相关性的rho和t检验的p值始终匹配。对我来说,这看起来不像是一个突破性的过程。 您可能会有任何解释和想法!


2
分类名义变量之间的类别之间的相关性
我有一个包含两个分类名义变量的数据集(均包含5个分类)。我想知道是否(以及如何)能够从这两个变量中识别类别之间的潜在关联。 换句话说,例如类别的结果 一世一世i变量1中的变量与变量2中的特定类别有很强的相关性。由于我有两个具有5个类别的变量,因此所有类别的总相关性分析将归结为25个结果(至少以我希望的方式/希望它能正常工作)。ĴĴj 我试图将问题表达为具体的问题: 问题1:假设我将分类变量转换为每个值(类别)5个不同的虚拟变量。我也为第二个变量运行相同的过程。然后,我想确定虚拟1.i和2.i之间的相关性(例如)。对我来说,通过普通的相关系数过程执行此过程在统计上是否正确?通过此过程得出的相关系数是否可以正确了解两个虚拟变量之间的相关性? 问题2:如果问题一中描述的过程是有效过程,是否可以同时对所有2个(或更多)分类名义变量类别进行分析? 我正在使用的程序是SPSS(20)。

1
两个二维点阵列之间的相关系数?
我有两个二维点数组,我需要估计它们的相关性。我应该使用什么配方? 数组示例: X:((1 ,5 ),(2 ,5 ),(1 ,7 ),(4 ,1 )),X:((1个,5),(2,5),(1个,7),(4,1个)),X: ((1,5),(2,5),(1,7),(4,1)), ÿ:((3 ,4 ),(1 , 6 ),(4 ,6 ),(4 ,3 ))。ÿ:((3,4),(1个,6),(4,6),(4,3))。Y: ((3,4),(1,6),(4,6),(4,3)).

2
为什么我的第一台PC解释的方差量如此接近平均成对相关性?
第一主成分和相关矩阵中的平均相关之间是什么关系? 例如,在经验应用中,我观察到平均相关性几乎与第一主成分(第一特征值)的方差与总方差(所有特征值之和)之比相同。 有数学关系吗? 以下是实证结果图表。其中,相关性是在15天滚动窗口中计算的DAX股指成分收益之间的平均相关性,而解释的方差是在15天滚动窗口中计算的第一主成分所解释的方差的份额。 可以用CAPM之类的常见风险因素模型来解释吗?

3
使用Pearson相关和线性回归的Bonferroni校正
我正在针对3个DV的5个IV(5个人格特质,性格外向,和agree,尽责,神经质,开放)运行统计数据,包括PCT态度,CBT态度,PCT与CBT态度。我还添加了年龄和性别,以查看还有其他影响。 我正在测试以查看人格特征是否可以预测DV的态度。 最初,我对所有变量都使用了Pearson相关性(45个测试)。 主要发现是外向性与PCT态度在p = 0.05相关。但是,当我进行45次测试时,我对Bonferroni进行了alpha = 0.05 / 45 = 0.001的校正,因此这一发现无关紧要。 然后,我对所有变量进行了简单的线性回归,对于PCT态度,外向性再次很重要。如果我进行Bonferroni校正,那么它再次显得微不足道。 问题: 我需要Bonferroni纠正Pearson的相关性吗? 如果我这样做了,因此对PCT的态度无忧无虑,那么进行线性回归还有意义吗? 如果我进行线性回归,是否还需要对此进行Bonferroni校正? 我只报告校正后的值还是未校正和校正后的值?

2
每个组中的相关性是否显着,但总体上无关紧要?
假设我们测试变量之间的Pearson相关性 XXx和在和。相关性在和每个中是否可能都是有效的,但当将两组数据组合在一起时却不重要吗?在这种情况下,请您提供一个解释。ÿÿy一个一个A乙乙B(x ,y)(X,ÿ)(x,y)一个一个A乙乙B


2
混合模型的参数,半参数和非参数引导
接下来的嫁接摘自本文。我是新手,要引导并尝试为带有R boot包的线性混合模型实现参数,半参数和非参数自举。 R代码 这是我的R代码: library(SASmixed) library(lme4) library(boot) fm1Cult <- lmer(drywt ~ Inoc + Cult + (1|Block) + (1|Cult), data=Cultivation) fixef(fm1Cult) boot.fn <- function(data, indices){ data <- data[indices, ] mod <- lmer(drywt ~ Inoc + Cult + (1|Block) + (1|Cult), data=data) fixef(mod) } set.seed(12345) Out <- boot(data=Cultivation, statistic=boot.fn, R=99) Out 问题 …
9 r  mixed-model  bootstrap  central-limit-theorem  stable-distribution  time-series  hypothesis-testing  markov-process  r  correlation  categorical-data  association-measure  meta-analysis  r  anova  confidence-interval  lm  r  bayesian  multilevel-analysis  logit  regression  logistic  least-squares  eda  regression  notation  distributions  random-variable  expected-value  distributions  markov-process  hidden-markov-model  r  variance  group-differences  microarray  r  descriptive-statistics  machine-learning  references  r  regression  r  categorical-data  random-forest  data-transformation  data-visualization  interactive-visualization  binomial  beta-distribution  time-series  forecasting  logistic  arima  beta-regression  r  time-series  seasonality  large-data  unevenly-spaced-time-series  correlation  statistical-significance  normalization  population  group-differences  demography 


3
R中矩阵之间的相关性
我在使用cor()和cor.test()函数时遇到问题。 我只有两个矩阵(只有数值,行和列的数目相同),我想拥有相关数和相应的p值。 当我使用时,cor(matrix1, matrix2)我得到所有细胞的相关系数。我只需要一个数字作为cor的结果。 此外,我cor.test(matrix1, matrix2)收到以下错误消息 Error in cor.test.default(matrix1, matrix2) : 'x' must be a numeric vector 如何获得矩阵的p值? 您可以在此处找到我想要关联的简单表: http://dl.dropbox.com/u/3288659/table_exp1_offline_MEANS.csv http://dl.dropbox.com/u/3288659/table_exp2_offline_MEANS.csv
9 r  correlation 

3
在变量对数转换之前或之后进行相关
关于是否应在进行对数转换之前或之后为两个随机变量X和Y计算出皮尔逊相关性,是否有一个普遍的原则?有测试哪个程序更合适?它们产生相似但不同的值,因为对数变换是非线性的。是否取决于对数后X或Y是否更接近常态?如果是这样,那为什么重要呢?这是否意味着应该对X和Y与log(X)和log(Y)进行正态性检验,并据此确定pearson(x,y)是否比pearson(log(x),log( y))?

5
除了Pearson相关性之外,我还能做什么?
在检查两个变量是否相关时,我观察到应用Pearson相关得出的数字低至0.1,表明没有相关性。我能做些什么来加强这一主张? 我正在查看的数据集(由于发布限制而被细分)是这样的: 6162.178176 0.049820046 4675.14432 0.145022261 5969.056896 0.47210138 5357.506176 0.052263122 33.796224 16.45154204 6162.178176 0.064262991 6725.448576 0.419005508 3247.656192 0.867394771 5357.506176 0.052263122 3612.97728 0.091337414 6162.178176 0.053065652 867.436416 0.129116092 556.833024 1.01107509 1517.611392 168.1484478 1517.611392 35.11570899 4675.14432 0.053902079 4182.685056 0.070289777 2808.30528 0.071929502 5969.056896 0.47193385 3247.656192 0.896646636 4387.071744 0.056985619 6273.222912 0.046547047 4387.071744 0.034875199 7946.940672 0.074997414 …

2
考虑到一个具有上限的变量,应使用哪种类型的回归?
我不确定要使用哪种方法来建模两个变量之间的关系(xxx 和 yyy)在实验中的描述如下: 有3个变量: xaimxaimx_{aim}, xxx 和 yyy。 的价值 xaimxaimx_{aim}在进行实验时设置。然而,xxx 和 xaimxaimx_{aim} 并不总是相等的。 皮尔逊之间的相关系数 xaimxaimx_{aim} 和 xxx 大约是0.9。 皮尔逊之间的相关系数 xxx 和 yyy 少得多:约0.5。 yyy 具有最大可能值(ymaxymaxy_{max}),不能超过。 设置后获取每个数据点 xaimxaimx_{aim} 和阅读 xxx 和 yyy。 虽然皮尔逊之间的相关系数 xxx 和 yyy 不好,看起来像 yyy 倾向于随着 xxx。 在进行简单的线性回归之后 y=f(x)y=f(x)y=f(x) 和 x=g(y)x=g(y)x=g(y) (然后将后者转换为 g−1g−1g^{-1},以便与 fff 例如),两个斜率均为正,但 g−1g−1g^{-1} 大于 fff。 …

2
使用Fisher变换对三个或更多相关性进行显着性检验
据我所知,在我之前的文章中,如果我具有三个相关系数,则必须成对测试它们,以查看它们之间是否存在显着差异。 这意味着我将不得不使用Fishers变换来计算r的z得分,然后计算z的p值(谢天谢地,在先前的文章中推荐的计算器可以做到这一点),然后确定p值是高于还是低于p每对我的alpha值(0.05)。 例如,如果21至30岁的年龄段为1岁,而31至40岁的年龄段为2岁,而41至50岁的年龄段为2岁,那么他们的购物习惯和减肥之间的相关性比较如下: 第一组vs第二组 第一组vs第三组 第2组与第3组 除了执行三个单独的计算,还有没有办法在一个步骤中完成所有这些计算?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.