Questions tagged «causality»

因果关系。

1
为什么Anova()和drop1()为GLMM提供了不同的答案?
我有以下形式的GLMM: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) 当我使用时drop1(model, test="Chi"),我得到的结果与Anova(model, type="III")从汽车包装或汽车上获得的结果不同summary(model)。后两个给出相同的答案。 通过使用大量虚构数据,我发现这两种方法通常没有区别。对于平衡线性模型,不平衡线性模型(不同组中的n不相等)和平衡广义线性模型,它们给出相同的答案,但对于平衡广义线性混合模型,它们给出相同的答案。因此看来,只有在包括随机因素的情况下,这种矛盾才会显现出来。 为什么这两种方法之间存在差异? 使用GLMM时应使用Anova()还是drop1()应使用? 至少就我的数据而言,两者之间的差异很小。哪一个使用都重要吗?
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

4
为什么要在差异中使用控制变量?
我对使用以下标准方程式的“差异中的差异”方法有疑问: 这里treat是治疗组和岗位的虚拟变量。 y=a+b1treat+b2post+b3treat⋅post+uy=a+b1treat+b2post+b3treat⋅post+u y= a + b_1\text{treat}+ b_2\text{post} + b_3\text{treat}\cdot\text{post} + u 现在,我的问题很简单:为什么大多数论文仍然使用其他控制变量?我认为,如果平行趋势假设是正确的,那么我们就不必担心额外的控制措施。我只能想到使用控制变量的2个可能原因: 没有它们,趋势将不会平行 因为DnD规范将治疗时治疗组和对照组之间趋势的任何差异归因于干预措施(即,交互作用术语*治疗后)-当我们不控制其他变量时,交互作用系数可能会超过-/低估了 有人可以阐明这个问题吗?我的理由1)或2)完全有意义吗?我对DnD中控制变量的使用不完全了解。

1
R线性回归分类变量“隐藏”值
这只是我多次遇到的示例,因此我没有任何示例数据。在R中运行线性回归模型: a.lm = lm(Y ~ x1 + x2) x1是一个连续变量。x2是分类的,具有三个值,例如“低”,“中”和“高”。但是,R给出的输出将类似于: summary(a.lm) Estimate Std. Error t value Pr(>|t|) (Intercept) 0.521 0.20 1.446 0.19 x1 -0.61 0.11 1.451 0.17 x2Low -0.78 0.22 -2.34 0.005 x2Medium -0.56 0.45 -2.34 0.005 我知道R在这种因素(x2是一个因素)上引入了某种虚拟编码。我只是想知道,如何解释x2“高”值?例如,x2在此处给出的示例中,“ High” 对响应变量有什么影响? 我在其他地方(例如这里)已经看到了这样的示例,但是还没有找到我能理解的解释。
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
在物流回归中使用“预测”一词有多公平?
我的理解是,即使回归也不能给出因果关系。它只能给出y变量和x变量以及可能的方向之间的关联。我对么?即使在大多数课程教科书和在线的各种课程页面上,我也经常发现类似于“ x预测y”的短语。您通常将回归变量称为预测变量,将y称为响应。 将其用于线性回归有多公平? 逻辑回归如何?(如果我确实有一个阈值t,可以与之比较概率?)

1
倾向得分加权对平均治疗效果的置信区间?
我试图使用倾向评分权重(特别是IPTW)从观察数据中估计平均治疗效果。我想我正在正确计算ATE,但是我不知道如何在考虑逆倾向得分权重的同时计算ATE的置信区间。 这是我用来计算平均治疗效果的方程式(参考Stat Med。2010年9月10日; 29(20):2137–2148。): 其中受试者总数,治疗状态,结果状态,倾向得分。ATE=1N∑1NZiYipi−1N∑1N(1−Zi)Yi1−piATE=1N∑1NZiYipi−1N∑1N(1−Zi)Yi1−piATE=\frac1N\sum_1^N\frac{Z_iY_i}{p_i}-\frac1N\sum_1^N\frac{(1-Z_i)Y_i}{1-p_i}N=N=N=Zi=Zi=Z_i=Yi=Yi=Y_i=pi=pi=p_i= 有人知道R包会考虑权重来计算平均治疗效果的置信区间吗?可以在survey这里包帮助吗?我想知道这是否行得通: library(survey) sampsvy=svydesign(id=~1,weights=~iptw,data=df) svyby(~surgery=='lump',~treatment,design=sampsvy,svyciprop,vartype='ci',method='beta') #which produces this result: treatment surgery == "lump" ci_l ci_u No 0.1644043 0.1480568 0.1817876 Yes 0.2433215 0.2262039 0.2610724 我不知道从哪里可以找到比例之间的差异的置信区间(即平均治疗效果)。

3
预测模型中的传递函数-解释
我忙于ARIMA建模,该模型添加了用于推广建模目的的外生变量,并且很难向业务用户进行解释。在某些情况下,软件包最终会带有简单的传递函数,即参数*外生变量。在这种情况下,解释很容易,即促销活动X(由外源二进制变量表示)通过Y量影响因变量(例如需求)。因此,从业务角度来讲,我们可以说促销活动X导致需求量增加了Y个单位。 有时,传递函数更加复杂,例如多项式除法*外生变量。我所能做的就是对多项式进行除法,以便找到所有的动态回归系数,并说例如促销活动不仅会影响需求发生期间的需求,而且还会影响未来的需求。但是由于软件包将输出传递函数作为多项式的除法,因此业务用户无法做出直观的解释。如果不进行除法运算,关于复杂的传递函数,我们有什么可以说的吗? 相关模型的参数和相关传递函数如下所示: 常数= 4200,AR(1),促销活动系数30,Num1 = -15,Num2 = 1.62,Den1 = 0.25 因此,我想如果这期间我们进行促销活动,需求量将增加30个单位。另外,由于存在传递函数(多项式除法),所以促销活动不仅会影响当前时间段,还会影响随后的时间段。问题是,我们如何才能发现促销会影响将来的几个时段,以及每个时段对需求量的影响如何?

1
从鉴定到估计
我目前正在阅读Pearl的文章(Pearl,2009年,第二版),探讨因果关系,并努力建立模型的非参数识别与实际估计之间的联系。不幸的是,珀尔本人对此话题非常沉默。 举个例子,我想到一个简单的因果关系模型, x→z→yx→z→yx \rightarrow z \rightarrow y,以及影响所有变量的混杂因素 w→xw→xw \rightarrow x, w→zw→zw \rightarrow z 和 w→yw→yw \rightarrow y。此外,xxx 和 yyy 受到不可观察的影响, x←→yx←→yx \leftarrow \rightarrow y。根据微积分规则,我现在知道干预后(离散)的概率分布由下式给出: P(y∣do(x))=∑w,z[P(z∣w,x)P(w)∑x[P(y∣w,x,z)P(x∣w)]].P(y∣do(x))=∑w,z[P(z∣w,x)P(w)∑x[P(y∣w,x,z)P(x∣w)]]. P(y \mid do(x)) = \sum_{w,z}\bigl[P(z\mid w,x)P(w)\sum_{x}\bigl[P(y\mid w,x,z)P(x\mid w)\bigr]\bigr]. 我知道不知道如何估算此数量(非参数或通过引入参数假设)?特别是当www是一组混杂变量,并且关注的数量是连续的。在这种情况下,估计联合干预前的数据分布似乎非常不切实际。有人知道处理这些问题的Pearl方法的应用吗?我很高兴获得一个指针。

3
随机分配:为什么要打扰?
随机分配很有价值,因为它可以确保治疗与潜在结果的独立性。这就是如何导致对平均治疗效果的无偏估计。但是其他分配方案也可以系统地确保治疗与潜在结果的独立性。那么为什么我们需要随机分配呢?换句话说,与非随机分配方案相比,随机分配又有什么优点呢? 令为治疗分配的向量,其中每个元素为0(未分配给治疗的单位)或1(分配给治疗的单位)。在一个JASA制品,安格里斯特,Imbens,和Rubin(1996,446-47)说治疗分配是随机的,如果表示所有\ mathbf {c}和\ mathbf {c'},使得\ iota ^ T \ mathbf {c} = \ iota ^ T \ mathbf {c'},其中\ iota是一个所有元素等于1的列向量。ZZ\mathbf{Z}ZiZiZ_iPr(Z=c)=Pr(Z=c′)Pr(Z=c)=Pr(Z=c′)\Pr(\mathbf{Z} = \mathbf{c}) = \Pr(\mathbf{Z} = \mathbf{c'})cc\mathbf{c}c′c′\mathbf{c'}ιTc=ιTc′ιTc=ιTc′\iota^T\mathbf{c} = \iota^T\mathbf{c'}ιι\iota 换句话说,如果包括m个治疗分配的任何分配向量与包括m个治疗分配的任何其他向量一样有可能,则分配ZiZiZ_i是随机的。mmmmmm 但是,为了确保潜在结果与治疗分配的独立性,足以确保研究中的每个单元都具有相等的分配给治疗的可能性。即使大多数治疗分配向量的选择概率为零,也很容易发生这种情况。即,即使在非随机分配下也可能发生。 这是一个例子。我们想用四个单元运行一个实验,其中两个单元将被正确处理。有六个可能的分配向量: 1100 1010 1001 0110 0101 0011 每个数字中的第一个数字表示是否已治疗第一个单元,第二个数字表示是否已治疗第二个单元,依此类推。 假设我们进行了一个实验,其中排除了赋值向量3和4的可能性,但是其中每个其他向量的选择机会均等(25%)。从AIR的意义上讲,该方案不是随机分配。但可以预料的是,这将导致平均治疗效果的无偏估计。那绝不是偶然的。任何给予受试者相等分配给治疗可能性的分配方案,将允许对ATE进行无偏估计。 那么:为什么我们需要AIR的随机分配?我的论点植根于随机推理。如果有人以基于模型的推理来思考,那么AIR的定义似乎更可辩护吗?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.