Questions tagged «interpretation»

通常指从统计分析结果中得出实质性结论。

1
如何用二元工具和二元内生变量解释工具变量回归中的第二阶段系数?
(相当长的帖子,对不起。它包含许多背景信息,请随时跳到底部的问题。) 简介:我正在做一个项目,我们试图确定二进制内生变量对连续结果。我们提出了一个工具,我们坚信它是随机分配的。x1x1x_1yyyz1z1z_1 数据:数据本身是一个面板结构,其中约34,000个观测值分布在1000个单位和约56个时间段内。对于大约700个(2%​​)的观测值,取值为1;对于大约3000个(9%),取值为1 。111个(0.33%)观测值在和上均得分为1,如果观测值在上也得分为1,则其在上得分为1的可能性是原来的两倍。x1x1x_1z1z1z_1z1z1z_1x1x1x_1x1x1x_1z1z1z_1 估计:我们通过Stata的ivreg2-过程估计以下2SLS模型: x1=π0+π1z1+Zπ+vx1=π0+π1z1+Zπ+vx_1 = \pi_0 + \pi_1z_1 + \mathbf{Z}\mathbf{\pi} + v y=β0+β1x∗1+Zβ+uy=β0+β1x1∗+Zβ+uy = \beta_0 + \beta_1 x_1^* + \mathbf{Z}\mathbf{\beta} + u 其中是其他外生变量的向量, 是从第一阶段开始的的预测值,而和是误差项。ZZZx∗1x1∗x_1^*x1x1x_1uuuvvv 结果:一切似乎都运行良好;的估计在第一阶段非常重要,而的估计在第二阶段非常重要。所有符号均符合预期,包括其他外生变量的符号。但是,问题在于(感兴趣的系数)的估计值太大了(或者至少根据我们一直在解释它的方式),这令人难以置信。π1π1\pi_1β1β1\beta_1β1β1\beta_1 yyy范围为2到26,平均值和中位数为17,但是的估计值范围为30到40(取决于规格)!β1β1\beta_1 弱IV:我们的第一个想法是这是由于乐器太弱所致。就是说,它与内生变量之间的关系不大,但事实并非如此。为了检查该仪器的弱点,我们使用Finlay,Magnusson和Schaffer的weakiv-package,因为它提供的测试对于违反假设的情况很健壮(在此处具有相关性,因为我们拥有面板数据并将我们的SE聚类在单位级别)。i.i.d.i.i.d.i.i.d. 根据他们的AR测试,第二阶段系数的95%置信区间的下限在16到29之间(再次取决于规格)。对于所有接近零的值,拒绝概率实际上为1。 有影响的观察结果: 我们尝试估计模型,其中每个单元都被单独删除,每个观察值都被单独删除,并且单元簇被删除。没有真正的改变。 提议的解决方案:有人建议我们不应该以原始度量(0-1)来总结被测量的估计效果,而应该以其预测版本的度量来总结。范围是-0.01至0.1,平均值和中位数约为0.02,SD约为0.018。如果我们通过的一个SD增加来总结的估计效果,那将是 (其他规范给出的结果几乎相同)。这将是更合理的方法(但仍然很重要)。似乎是完美的解决方案。除了我从未见过有人这样做;每个人似乎都只是使用原始内生变量的度量来解释第二阶段系数。x1x1x_1x∗1x1∗x_1^*x1x1x_1x∗1x1∗x_1^*0.018∗30=0.540.018∗30=0.540.018*30 = 0.54 问题:在IV模型中,使用预测变量的度量来总结内生变量增加的估计效果(实际上是LATE)是否正确?在我们的案例中,该指标是预测概率。 注意:即使我们有一个二进制内生变量(使第一阶段成为LPM),我们仍使用2SLS。遵循Angrist&Krueger(2001):“仪器变量与识别:从供需到自然实验”),我们还尝试了Adams,Almeida和Ferreira(2009)中使用的三阶段程序:了解创始人-首席执行官与公司绩效之间的关系”。后一种方法由一个概率模型和一个2SLS组成,产生的系数更小且更合理,但是如果以0-1度量(大约9-10)进行解释,它们仍然很大。手动计算得到的结果与Cerulli ivtreatreg中的probit-2sls-option的结果相同。


3
当您有大量N,离散数据和许多变量时,如何从散点图矩阵中提取信息?
我正在研究乳腺癌数据集,并创建了所有属性的散点图,以了解哪个属性对预测(红色)的类别malignant(蓝色)影响最大benign。 我知道该行代表x轴,而列代表y轴,但是我看不到我可以对散点图中的数据或属性进行哪些观察。 我正在寻找一些帮助来解释/观察来自此散点图的数据,或者是否应该使用其他可视化来可视化此数据。 我用的R代码 link <- "http://www.cs.iastate.edu/~cs573x/labs/lab1/breast-cancer-wisconsin.arff" breast <- read.arff(link) cols <- character(nrow(breast)) cols[] <- "black" cols[breast$class == 2] <- "red" cols[breast$class == 4] <- "blue" pairs(breast, col=cols)

1
如何解释Cochran-Mantel-Haenszel检验?
我正在测试由C分层的两个变量A和B的独立性。A和B是二进制变量,C是分类变量(5个值)。运行费舍尔对A和B(所有层的总和)的精确测试,我得到: ## (B) ## (A) FALSE TRUE ## FALSE 1841 85 ## TRUE 915 74 OR: 1.75 (1.25 -- 2.44), p = 0.0007 * 其中OR是优势比(估计值和95%置信区间),*意味着p <0.05。 对每个层(C)运行相同的测试,我得到: C=1, OR: 2.31 (0.78 -- 6.13), p = 0.0815 C=2, OR: 2.75 (1.21 -- 6.15), p = 0.0088 * C=3, OR: 0.94 (0.50 …


1
如何从人们感兴趣的领域的调查中解释这个PCA双线图?
背景:我询问了数百名受访者对所选区域的兴趣(按李克特五分制,其中1分表示“不感兴趣”,5分表示“感兴趣”)。 然后我尝试了PCA。下图是前两个主要组成部分的投影。颜色用于性别,PCA箭头是原始变量(即兴趣)。 我注意到: 点(受访者)被第二部分很好地分开了。 没有左箭头。 有些箭比其他箭短得多。 变量趋向于形成集群,而不是观察值。 看来,指向男性的向下箭头主要是男性的利益,指向上方的箭头主要是女性的利益。 一些箭头既不指向下方也不指向上方。 问题:如何正确解释点(受访者),颜色(性别)和箭头(变量)之间的关系?从这个情节中可以得出关于受访者及其兴趣的其他结论吗? 数据可以在这里找到。

1
条件密度图的解释
我想知道如何正确解释条件密度图。我在下面用R创建的下面插入了两个cdplot。 例如,当变量1为150时大约80%的结果等于1 的概率吗? 暗灰色区域是Result等于1 的条件概率,对吧? 从cdplot文档中: 在给定y的水平(由y的边际分布加权)的情况下,cdplot计算x的条件密度。密度是在y级别上累积得出的。 这种积累如何影响这些图的解释?

1
为什么Anova()和drop1()为GLMM提供了不同的答案?
我有以下形式的GLMM: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) 当我使用时drop1(model, test="Chi"),我得到的结果与Anova(model, type="III")从汽车包装或汽车上获得的结果不同summary(model)。后两个给出相同的答案。 通过使用大量虚构数据,我发现这两种方法通常没有区别。对于平衡线性模型,不平衡线性模型(不同组中的n不相等)和平衡广义线性模型,它们给出相同的答案,但对于平衡广义线性混合模型,它们给出相同的答案。因此看来,只有在包括随机因素的情况下,这种矛盾才会显现出来。 为什么这两种方法之间存在差异? 使用GLMM时应使用Anova()还是drop1()应使用? 至少就我的数据而言,两者之间的差异很小。哪一个使用都重要吗?
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

2
指数对数回归系数与比值比不同
据我了解,对数回归的指数贝塔值是该变量与相关因变量的比值比。但是,该值与手动计算的优势比不匹配。我的模型使用保险等其他指标预测发育迟缓(营养不良的一种衡量标准)。 // Odds ratio from LR, being done in stata logit stunting insurance age ... etc. or_insurance = exp(beta_value_insurance) // Odds ratio, manually calculated odds_stunted_insured = num_stunted_ins/num_not_stunted_ins odds_stunted_unins = num_stunted_unins/num_not_stunted_unins odds_ratio = odds_stunted_ins/odds_stunted_unins 这些值不同的概念原因是什么?控制回归中的其他因素?只是想能够解释差异。


2
二项式效应大小显示(BESD)是否会误导效应大小?
我很难接受唐纳德·鲁宾(Donald Rubin)提出过一个真正的技巧。然而,这是我的BESD [感悟1,2,3 ]。 Rosenthal和Rubin(1982)的原始论文声称,显示“无论原始数据是连续的还是分类的,如何将任何产品-时刻的相关性重塑到这种[2x2]的显示器中”都是有价值的。 下表来自p。上方第二个链接451: 这项技术似乎夸大了几乎所有效果大小的大小。在这里,原始数据的 = .01,但是当“转换”为2x2列联表时,我们似乎要面对更大的影响。我并不否认,当以这种方式将数据重新转换为分类格式时,确实为.1,但是我觉得翻译中有些东西很失真。 ϕ[R2R2R^2ϕϕ\phi 我在这里错过真正有价值的东西吗?另外,我给人的印象是,在过去的十年左右的时间里,统计界普遍拒绝将此作为一种合法方法,我对此是否错? 分别计算实验()和控制()成功率()的方程式很简单:Ç 小号[RËEECCC小号[Rsrsr Ë小号[R= .50 + r / 2Esr=.50+r/2E_{sr} = .50 + r/2 和 C小号[R= .50 − r / 2Csr=.50−r/2C_{sr} = .50 - r/2 参考: Rosenthal,R。和Rubin,DB(1982)。一个简单的通用显示实验效果的大小。教育心理学杂志,74,166–169。

1
对数损失的直观解释
在几次kaggle比赛中,得分基于“ logloss”。这与分类错误有关。 这是一个技术性的答案,但我正在寻找一个直观的答案。我真的很喜欢答案这个有关马氏距离的问题,但PCA并不是logloss。 我可以使用分类软件提供的价值,但我不太了解。为什么用它代替真实/错误的阳性/阴性率?您能帮我,以便我可以向外婆或该领域的新手解释吗? 我也喜欢并同意以下报价: 除非您可以向祖母解释 - 否则您不会真正理解某些东西 在发布到这里之前,我尝试自行回答。 我没有发现直观或真正有用的链接包括: http://www.r-bloggers.com/making-sense-of-logarithmic-loss/ https://www.quora.com/What-is-an-intuitive-explanation-for-the-log-loss-function https://lingpipe-blog.com/2010/11/02/evaluating-with-probabilistic-truth-log-loss-vs-0-1-loss/ https://www.kaggle.com/wiki/LogarithmicLoss 这些信息丰富,准确。它们是为技术读者准备的。他们没有画简单的图画,也没有给出简单易用的例子。他们不是为我祖母写的。

2
如何解释ACF和PACF图
我只想检查一下我是否正确解释了ACF和PACF图: 数据对应于在实际数据点之间生成的误差和使用AR(1)模型生成的估计值。 我在这里看了答案: 通过ACF和PACF检查估算ARMA系数 阅读后,似乎错误不是自相关的,但我只是想确定,我担心的是: 1.)第一个错误就在边界上(在这种情况下,我应该接受还是拒绝在滞后1存在明显的自相关)? 2.)线代表95%的置信区间,并且考虑到存在116个滞后,我希望不超过(0.05 * 116 = 5.8,我向上舍入为6个)6个滞后。对于ACF就是这种情况,但对于PACF大约有10个例外。如果把那些包括在边界上,那更像是14?这仍然表明没有自相关吗? 3.)我是否应该从一个事实中了解到所有违反95%置信区间的情况都是不利的?

1
分类变量和连续变量之间相互作用的解释系数
我对连续变量和分类变量之间的相互作用系数的解释有疑问。这是我的模型: model_glm3=glm(cog~lg_hag+race+pdg+sex+as.factor(educa)+(lg_hag:as.factor(educa)), data=base_708) Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 21.4836 2.0698 10.380 < 2e-16 *** lg_hag 8.5691 3.7688 2.274 0.02334 * raceblack -8.4715 1.7482 -4.846 1.61e-06 *** racemexican -3.0483 1.7073 -1.785 0.07469 . racemulti/other -4.6002 2.3098 -1.992 0.04687 * pdg 2.8038 0.4268 6.570 1.10e-10 *** sexfemale 4.5691 1.1203 …

1
哪种深度学习模型可以对不互斥的类别进行分类
示例:我的职位描述中有一句话:“英国Java高级工程师”。 我想使用深度学习模型将其预测为2类:English 和IT jobs。如果我使用传统的分类模型,则只能预测softmax最后一层具有功能的标签。因此,我可以使用2个模型神经网络来预测两个类别的“是” /“否”,但是如果我们有更多类别,那就太贵了。那么,我们是否有任何深度学习或机器学习模型可以同时预测2个或更多类别? “编辑”:使用传统方法使用3个标签,它将由[1,0,0]编码,但在我的情况下,它将由[1,1,0]或[1,1,1]编码 示例:如果我们有3个标签,并且所有这些标签都适合一个句子。因此,如果softmax函数的输出为[0.45,0.35,0.2],我们应该将其分类为3个标签或2个标签,或者可以是一个?我们这样做的主要问题是:分类为1个,2个或3个标签的最佳阈值是多少?
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.