Questions tagged «pearson-r»

皮尔逊积矩相关系数是两个变量之间的线性关系的度量 XY,其值介于+1和-1之间。

2
关于线性关系,r,r平方和残留标准偏差告诉我们什么?
我从事回归分析解释的工作很少,但是我对r,r平方和残差标准偏差的含义感到非常困惑。我知道定义: 表征 r测量散点图上两个变量之间线性关系的强度和方向 R平方是数据与拟合回归线的接近程度的统计量度。 残留标准偏差是用于描述围绕线性函数形成的点的标准偏差的统计术语,并且是对被测量因变量的准确性的估计。(不知道单位是什么,这里有关单位的任何信息都将有所帮助) (来源:此处) 问题 尽管我“理解”了这些特征,但我确实理解了这些术语如何共同得出关于数据集的结论。我将在此处插入一个小示例,也许这可以作为回答我的问题的指南(随时使用您自己的示例!) 示例 这不是howework问题,但是我在书中进行搜索以获得一个简单示例(我正在分析的当前数据集过于复杂和庞大,无法在此处显示) 在一个大玉米田中随机选择了20个地块,每个地块10 x 4米。对于每个样地,观察植物密度(样地中的植物数量)和平均穗轴重量(每穗轴的谷物克数)。下表给出了结果:(来源:生命科学统计) ╔═══════════════╦════════════╦══╗ ║ Platn density ║ Cob weight ║ ║ ╠═══════════════╬════════════╬══╣ ║ 137 ║ 212 ║ ║ ║ 107 ║ 241 ║ ║ ║ 132 ║ 215 ║ ║ ║ 135 ║ 225 ║ ║ ║ 115 ║ …

1
PROC Mixed和LME / LMER在R自由度上的区别
注意:这个问题是一个转贴,因为我的上一个问题出于法律原因不得不删除。 在比较SAS的PROC MIXED与R中lme的nlme软件包的功能时,我偶然发现了一些相当混乱的差异。更具体地说,不同测试的自由度在PROC MIXED和之间有所不同lme,我想知道为什么。 从以下数据集(以下给出的R代码)开始: ind:指示进行测量的个人的因子 fac:进行测量的器官 trt:表示治疗的因素 y:一些连续响应变量 这个想法是建立以下简单模型: y ~ trt + (ind):ind作为随机因子 y ~ trt + (fac(ind)):fac嵌套在ind作为随机因子 需要注意的是最后一个模型应引起奇异性,因为只有1的值y对每一个组合ind和fac。 第一模型 在SAS中,我建立以下模型: PROC MIXED data=Data; CLASS ind fac trt; MODEL y = trt /s; RANDOM ind /s; run; 根据教程,R中使用的相同模型nlme应为: > require(nlme) > options(contrasts=c(factor="contr.SAS",ordered="contr.poly")) > m2<-lme(y~trt,random=~1|ind,data=Data) 两种模型对系数及其SE均给出相同的估计,但是在对F的影响进行F检验时trt,它们使用的自由度不同: SAS : Type …
12 r  mixed-model  sas  degrees-of-freedom  pdf  unbiased-estimator  distance-functions  functional-data-analysis  hellinger  time-series  outliers  c++  relative-risk  absolute-risk  rare-events  regression  t-test  multiple-regression  survival  teaching  multiple-regression  regression  self-study  t-distribution  machine-learning  recommender-system  self-study  binomial  standard-deviation  data-visualization  r  predictive-models  pearson-r  spearman-rho  r  regression  modeling  r  categorical-data  data-visualization  ggplot2  many-categories  machine-learning  cross-validation  weka  microarray  variance  sampling  monte-carlo  regression  cross-validation  model-selection  feature-selection  elastic-net  distance-functions  information-theory  r  regression  mixed-model  random-effects-model  fixed-effects-model  dataset  data-mining 

2
当Spearman相关性比Pearson小一定数量时,它表示什么?
我有一堆相关的数据集。它们之间成对的皮尔逊相关性通常肯定比斯皮尔曼相关性大。这表明任何相关都是线性的,但是即使皮尔逊和斯皮尔曼是相同的,也可能期望这样。当皮尔逊和斯皮尔曼相关性之间存在一定的差距并且皮尔逊更大时,这意味着什么?这似乎是我所有数据集的一致特征。

2
两个卡片组之间的相关性?
我编写了一个程序来模拟手牌洗牌。 每张卡都有编号,西装CLUBS, DIAMONDS, HEARTS, SPADES的等级从2到10,然后是Jack,Queen,King和Ace。因此,两家具乐部的个数为1,三家具乐部的个数为2 .... A俱乐部数为13,黑桃A为52。 确定卡片混洗程度的方法之一是将其与未混洗的卡片进行比较,并查看卡片的顺序是否相关。 也就是说,我可能拥有这些卡,并使用未洗牌的卡进行比较: Unshuffled Shuffled Unshuffled number Shuffled number Two of Clubs Three of Clubs 1 2 Three of Clubs Two of Clubs 2 1 Four of Clubs Five of Clubs 3 4 Five of Clubs Four of Clubs 4 3 皮尔森法的相关性为:0.6 使用大量的卡片(共52张),您可能会看到图案出现。我的假设是,经过更多的改组,您将获得更少的相关性。 但是,有很多方法可以测量相关性。 …


3
使用Pearson相关和线性回归的Bonferroni校正
我正在针对3个DV的5个IV(5个人格特质,性格外向,和agree,尽责,神经质,开放)运行统计数据,包括PCT态度,CBT态度,PCT与CBT态度。我还添加了年龄和性别,以查看还有其他影响。 我正在测试以查看人格特征是否可以预测DV的态度。 最初,我对所有变量都使用了Pearson相关性(45个测试)。 主要发现是外向性与PCT态度在p = 0.05相关。但是,当我进行45次测试时,我对Bonferroni进行了alpha = 0.05 / 45 = 0.001的校正,因此这一发现无关紧要。 然后,我对所有变量进行了简单的线性回归,对于PCT态度,外向性再次很重要。如果我进行Bonferroni校正,那么它再次显得微不足道。 问题: 我需要Bonferroni纠正Pearson的相关性吗? 如果我这样做了,因此对PCT的态度无忧无虑,那么进行线性回归还有意义吗? 如果我进行线性回归,是否还需要对此进行Bonferroni校正? 我只报告校正后的值还是未校正和校正后的值?

3
在变量对数转换之前或之后进行相关
关于是否应在进行对数转换之前或之后为两个随机变量X和Y计算出皮尔逊相关性,是否有一个普遍的原则?有测试哪个程序更合适?它们产生相似但不同的值,因为对数变换是非线性的。是否取决于对数后X或Y是否更接近常态?如果是这样,那为什么重要呢?这是否意味着应该对X和Y与log(X)和log(Y)进行正态性检验,并据此确定pearson(x,y)是否比pearson(log(x),log( y))?

5
除了Pearson相关性之外,我还能做什么?
在检查两个变量是否相关时,我观察到应用Pearson相关得出的数字低至0.1,表明没有相关性。我能做些什么来加强这一主张? 我正在查看的数据集(由于发布限制而被细分)是这样的: 6162.178176 0.049820046 4675.14432 0.145022261 5969.056896 0.47210138 5357.506176 0.052263122 33.796224 16.45154204 6162.178176 0.064262991 6725.448576 0.419005508 3247.656192 0.867394771 5357.506176 0.052263122 3612.97728 0.091337414 6162.178176 0.053065652 867.436416 0.129116092 556.833024 1.01107509 1517.611392 168.1484478 1517.611392 35.11570899 4675.14432 0.053902079 4182.685056 0.070289777 2808.30528 0.071929502 5969.056896 0.47193385 3247.656192 0.896646636 4387.071744 0.056985619 6273.222912 0.046547047 4387.071744 0.034875199 7946.940672 0.074997414 …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.