Questions tagged «interpretation»

通常指从统计分析结果中得出实质性结论。

2
解释R的输出以进行二项式回归
对于二项式数据测试,我是一个新手,但需要做一个,现在我不确定如何解释结果。y变量(响应变量)是二项式的,解释因素是连续的。这是我总结结果时得到的: glm(formula = leaves.presence ~ Area, family = binomial, data = n) Deviance Residuals: Min 1Q Median 3Q Max -1.213 -1.044 -1.023 1.312 1.344 Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) -0.3877697 0.0282178 -13.742 < 2e-16 *** leaves.presence 0.0008166 0.0002472 3.303 0.000956 *** --- Signif. codes: 0 ‘***’ 0.001 …

4
如何从多项式模型拟合中解释系数?
我正在尝试为我拥有的某些数据创建二阶多项式。假设我通过以下方式绘制了这种拟合ggplot(): ggplot(data, aes(foo, bar)) + geom_point() + geom_smooth(method="lm", formula=y~poly(x, 2)) 我得到: 因此,二阶拟合效果很好。我用R计算: summary(lm(data$bar ~ poly(data$foo, 2))) 我得到: lm(formula = data$bar ~ poly(data$foo, 2)) # ... # Coefficients: # Estimate Std. Error t value Pr(>|t|) # (Intercept) 3.268162 0.008282 394.623 <2e-16 *** # poly(data$foo, 2)1 -0.122391 0.096225 -1.272 0.206 # poly(data$foo, …

4
X和Y没有相关性,但是X是多元回归中Y的重要预测因子。这是什么意思?
X和Y不相关(-.01);但是,当我将X放入预测Y的多元回归中时,与其他三个(A,B,C)变量(相关)并列,X和另外两个变量(A,B)是Y的重要预测因子。请注意,另外两个( A,B)变量在回归之外与Y显着相关。 我应该如何解释这些发现?X可以预测Y的唯一方差,但是由于这些不相关(Pearson),因此难以解释。 我知道相反的情况(即,两个变量是相关的,但回归不显着),从理论和统计的角度来看,它们相对较容易理解。请注意,一些预测变量之间的相关性很高(例如,.70),但与我预期的实质多重共线性的程度不同。不过,也许我误会了。 注意:我之前曾问过这个问题,所以已经关闭了。合理的理由是,该问题与“ 回归如何显着而所有预测变量都不显着? ”这样的问题是多余的。“。也许我不理解另一个问题,但我认为这些问题在数学和理论上都是完全独立的问题。我的问题与“回归显着”是否完全独立。此外,有几个预测变量也很重要,而另一个问题包含的变量并不重要,因此我看不到重叠之处。如果由于我不理解的原因这些问题是多余的,请在关闭此问题之前插入一条评论。此外,我也希望向主持人关闭另一个问题,以避免相同的问题,但我找不到这样做的选择。

1
在因素分析/ PCA中进行旋转的直观原因是什么?如何选择合适的旋转?
我的问题 在因子分析(或PCA中的组件)中进行因子轮换的直观原因是什么? 我的理解是,如果变量几乎均等地加载到顶部组件(或因子)中,那么显然很难区分这些组件。因此,在这种情况下,可以使用旋转来更好地区分组件。它是否正确? 轮换会有什么结果?这会影响什么? 如何选择合适的旋转度?有正交旋转和倾斜旋转。如何在这些之间进行选择,这种选择的含义是什么? 请用最少的数学方程式直观地解释。分散的答案中很少有数学上很繁重的内容,但出于直观原因和经验法则,我正在寻找更多答案。

2
了解p值
我知道有很多材料可以解释p值。但是,如果不进一步澄清,很难轻易牢牢把握这个概念。 这是Wikipedia中p值的定义: p值是假设零假设为真,则获得至少与实际观察到的极端一样的检验统计量的概率。(http://en.wikipedia.org/wiki/P-value) 分钟[ P(X&lt; x),P( x &lt; X)]min[P(X&lt;x),P(x&lt;X)]\min[P(X<x),P(x<X)],如果统计量的PDF是单峰的,则是检验统计量,而是其从观察中获得的值。这是正确的吗?如果正确,使用统计的双峰PDF是否仍然适用?如果PDF的两个峰很好地分开,并且观测值在两个峰之间的低概率密度区域中的某个位置,则p值给出哪个概率?XXXXXxx 的第二个问题是关于从钨MathWorld p值的另一种定义: 变量严格地偶然采用大于或等于观察值的概率。(http://mathworld.wolfram.com/P-Value.html) 我了解到“严格地偶然”一词应解释为“假设无效假设”。那正确吗? 在第三个问题关于使用“零假设”的。假设有人要坚持认为硬币是公平的。他表达了这样的假设,即头部的相对频率为0.5。那么零假设是“磁头的相对频率不是0.5”。在这种情况下,尽管难以计算原假设的p值,但对于替代假设而言,计算却很容易。当然,可以通过互换两个假设的作用来解决问题。我的问题是,直接基于原始替代假设的p值(不引入无效假设)的拒绝或接受是可以的。如果还不行,那么在计算原假设的p值时针对此类困难的通常解决方法是什么? 我发布了一个新问题,该问题根据该主题中的讨论得到进一步阐明。

5
“平均值”和“平均值”有什么区别?
维基百科解释: 对于数据集,平均值是值的总和除以值的数量。 但是,这个定义对应于我所谓的“平均”(至少我记得学习过)。维基百科再次引用: 还有其他一些统计方法使用的样本被某些人与平均值混淆了,包括“中位数”和“众数”。 现在这很令人困惑。“平均值”和“平均值”是否彼此不同?如果可以,怎么办?

5
数据“探索”与数据“监听” /“拷打”?
很多时候,我都遇到过非正式的警告,反对“数据​​监听”(这是一个有趣的例子),我认为我对这意味着什么以及为什么可能是一个问题有一个直观的认识。 另一方面,“探索性数据分析”似乎是统计学中一个非常受人尊敬的程序,至少从以下事实来看:具有该名称的书仍被经典地引用。 在我的工作中,我经常遇到看起来像猖like的“数据监听”,或者将其更好地描述为“数据折磨 ”,尽管这样做的人似乎将同一活动视为完全合理且毫无问题的“探索” ”。 这是典型的场景:进行了代价高昂的实验(对后续分析没有过多考虑),原始研究人员无法轻易辨别所收集数据中的“故事”,有人被邀请使用一些“统计巫术”,以及,在以各种方式对数据进行切片和切块之后,最终设法从中提取出一些可发布的“故事”。 当然,最终报告/论文中通常会抛出一些“验证”,以表明统计分析是不断进行的,但其背后公然的不惜一切代价发表的态度让我感到怀疑。 不幸的是,由于我对数据分析可做与不可做的有限理解,使我无法摆脱如此模糊的疑问,因此我的保守回应是基本上不理会这些发现。 我的希望是,不仅可以更好地理解探索与侦听/拷打之间的区别,而且更重要的是,更好地掌握检测越界线的原理和技术,将使我能够评估这些发现。这种方法可以合理地解释一个不太理想的分析过程,因此可以超越我目前对笼统怀疑的相当简单的想法。 编辑:谢谢大家非常有趣的评论和答案。从他们的内容来看,我认为我可能还没有很好地解释我的问题。我希望此更新可以澄清问题。 我在这里的问题不是那么重要,我应该怎么做才能避免折磨我的数据(尽管这也是一个令我感兴趣的问题),而是:我应该如何看待(或评估)我通过事实得出的结果这样的“数据折磨”。 在那些(非常罕见)的情况下,情况变得更加有趣,此外,在这些情况下,我还可以发表意见,然后再将其提交发表。 在这一点上,我最多只能说些类似的话:“鉴于我对获得这些假设和程序的了解,我不知道可以对这些发现给予多大的信任。” 这太模糊了,甚至不值得一说。 想要超越这种模糊性是我发帖的动机。 公平地说,我在这里的怀疑不仅仅基于看似有问题的统计方法。实际上,我认为后者更多是由更深层次的问题引起的:结合了对实验设计的勇敢态度以及对公布结果的坚定承诺(即无需任何进一步的实验)。当然,后续项目总是可以预见的,但是毫无疑问的是,不会从“装满100,000个样品的冰箱”中取出一张纸。 统计数据只是实现此最高目标的一种手段。锁定统计数据的唯一理由(在整个场景中是次要的)是,假设“不惜一切代价出版”的正面挑战根本没有意义。 实际上,在这种情况下,我只能想到一种有效的响应:提出一些统计测试(不需要额外的实验)来真正测试分析的质量。但是我只是没有统计数据。我的希望(回想起来很幼稚)是找出我可以研究的东西,使我能够进行此类测试。 在我撰写本文时,我突然意识到,如果不存在这样的数据,世界可以使用一个新的统计子分支,专门用于检测和公开“数据酷刑”的技术。(当然,我并不是说被“酷刑”隐喻迷住了:问题不是本质上的“数据酷刑”,而是它可能导致的虚假“发现”。)

2
主成分分析中双峰的解释
我遇到了一个很好的教程:《使用R进行统计分析的手册》。第13章。主成分分析:奥林匹克七项全能,其中涉及如何用R语言进行PCA。我不理解图13.3的解释: 因此,我正在绘制第一个特征向量与第二个特征向量。这意味着什么?假设对应于第一特征向量的特征值解释了数据集中60%的变化,第二特征值-特征向量解释了20%的变化。将它们相互绘制意味着什么?

6
置信区间何时有用?
如果我正确理解,则参数的置信区间是通过一种方法构造的区间,该方法可得出包含指定比例样本的真实值的区间。因此,“置信度”是关于方法的,而不是我从特定样本计算的间隔。 作为统计的用户,由于所有样本的空间都是假设的,因此我一直对此感到受骗。我只有一个样本,我想知道该样本告诉我有关参数的信息。 这个判断错了吗?至少在某些情况下,是否存在查看置信区间的方法,这对统计用户有意义? [这个问题源于第二个想法在math.se答案瞧不起置信区间后https://math.stackexchange.com/questions/7564/calculating-a-sample-size-based-on-a-confidence-level/7572 #7572 ]

3
逻辑回归中简单预测对优势比的解释
我对使用逻辑回归有些陌生,并且对以下值的解释之间的差异有些困惑,我认为这是相同的: 指数贝塔值 使用beta值预测结果的可能性。 这是我使用的模型的简化版本,营养不足和保险都是二进制的,财富是连续的: Under.Nutrition ~ insurance + wealth 我的(实际)模型返回的保险指数值为0.8,我将其解释为: “被保险人营养不足的概率是未保险人营养不足的概率的0.8倍。” 但是,当我通过将0和1的值分别输入保险变量和财富平均值来计算个人的概率差异时,营养不足的差异仅为0.04。计算公式如下: Probability Undernourished = exp(β0 + β1*Insurance + β2*Wealth) / (1+exp(β0 + β1*Insurance + β2*wealth)) 如果有人可以解释为什么这些值不同,以及什么是更好的解释(尤其是第二个值),我将不胜感激。 进一步的澄清编辑 据我了解,未投保的人(其中B1对应于保险)营养不足的可能性为: Prob(Unins) = exp(β0 + β1*0 + β2*Wealth) / (1+exp(β0 + β1*0+ β2*wealth)) 虽然被保险人营养不足的可能性是: Prob(Ins)= exp(β0 + β1*1 + β2*Wealth) / (1+exp(β0 …

6
Shapiro-Wilk检验的解释
我是统计学的新手,需要您的帮助。 我有一个小样本,如下所示: H4U 0.269 0.357 0.2 0.221 0.275 0.277 0.253 0.127 0.246 我使用R运行了Shapiro-Wilk测试: shapiro.test(precisionH4U$H4U) 我得到以下结果: W = 0.9502, p-value = 0.6921 现在,如果我假设在0.05处的显着性水平大于p值,则alpha(0.6921&gt; 0.05),并且我不能拒绝关于正态分布的零假设,但是我是否可以说样本具有正态分布? 谢谢!

4
您如何解释RMSLE(均方根对数误差)?
我一直在进行机器学习竞赛,他们使用RMSLE(均方根对数误差)评估性能,从而预测一类设备的销售价格。问题是我不确定如何解释最终结果的成功。 例如,如果我达到了的RMSLE,是否可以将它的指数幂提高并像rmse一样解释它?(即)?e e 1.052 = 2.863 = R M S E1.0521.0521.052ËËeË1.052= 2.863 = R M小号ËË1.052=2.863=[R中号小号Ëe^{1.052}=2.863=RMSE 然后,我能否说我的预测平均为实际价格的?还是有更好的方法来解释指标?还是除了与其他模型的其他RMSLE进行比较外,甚至可以完全解释该指标? ± $ 2.863±$2.863\pm \$2.863

1
如何解释混合效应模型中随机效应的方差和相关性?
希望大家都不要介意这个问题,但是我需要帮助解释线性混合效果模型输出的输出,这是我一直试图在R中学习做的事情。我是纵向数据分析和线性混合效果回归的新手。我有一个模型,我将几周作为时间预测器,并在就业课程中得分作为结果。我用几周(时间)和几个固定影响,性别和种族对分数建模。我的模型包括随机效应。我需要帮助来了解方差和相关性的含义。输出如下: Random effects Group Name Variance EmpId intercept 680.236 weeks 13.562 Residual 774.256 相关系数是.231。 我可以将相关性解释为星期与分数之间存在正相关关系,但我希望能够用“ ...的23%”来表述。 我非常感谢您的帮助。 感谢“来宾”和Macro的答复。抱歉,由于没有回复,我参加了一次会议,现在正在追赶。这是输出和上下文。 这是我运行的LMER模型的摘要。 &gt;summary(LMER.EduA) Linear mixed model fit by maximum likelihood Formula: Score ~ Weeks + (1 + Weeks | EmpID) Data: emp.LMER4 AIC BIC logLik deviance REMLdev 1815 1834 -732.6 1693 1685 Random …

1
从lmer模型计算效果的可重复性
我刚刚碰到了这篇论文,该论文描述了如何通过混合效应建模来计算测量的可重复性(又称可靠性,又称类内相关性)。R代码为: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted repeatability R = intercept_var/(intercept_var+residual_var) #compute n0, the repeatability adjustment n = as.data.frame(table(my_data$unit)) k = nrow(n) N = sum(n$Freq) n0 = (N-(sum(n$Freq^2)/N))/(k-1) #compute the adjusted repeatability Rn = …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

3
现在不能说深度学习模型可以解释吗?是节点功能吗?
对于统计模型和机器学习模型,可解释性有多个级别:1)整个算法,2)一般的算法部分3)特定输入的算法部分,这三个级别分别分为两个部分,一种用于训练,另一种用于功能评估。最后两个部分比第一个部分更接近。我问的是#2,通常可以更好地理解#3。(如果这些不是“可解释性”的含义,那我应该怎么想?) 就可解释性而言,逻辑回归是最容易解释的一种。为什么此实例超过阈值?因为该实例具有此特定的正特征,并且在模型中具有较大的系数。太明显了! 神经网络是难以解释的模型的经典示例。所有这些系数是什么意思?它们全都以如此复杂的疯狂方式加起来,以至于很难说出任何特定系数在做什么。 但是随着所有深层神经网络的出现,感觉事情变得越来越清晰。DL模型(例如视觉)似乎在早期层中捕获了诸如边缘或方向之类的东西,而在后来的层中,似乎某些节点实际上是语义上的(例如众所周知的“祖母细胞”)。例如: (摘自“了解深度学习”) 这是一个图形(许多在那里的,用手演示文稿中创建让我很怀疑)。但是有证据表明有人认为这是有效的。 也许在过去,没有足够的层次供我们查找可识别的功能。这些模型是成功的,只是事后分析特定模型并不容易。 但是也许图形只是一厢情愿的想法。也许神经网络是真正难以理解的。 但是,许多带有标有图片的节点的图形也确实令人信服。 DL节点真的对应功能吗?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.