Questions tagged «meta-analysis»

方法着眼于对比和合并不同研究的结果,以期提高准确性和外部有效性。

1
优势比的荟萃分析是否基本没有希望?
在最近的一篇论文中,诺顿等人。(2018)指出[1][1]^{[1]} 当导致赔率估算的统计模型具有不同的解释变量时,无法比较来自同一研究的不同赔率,因为每个模型具有不同的任意比例因子。也不能将一项研究的优势比的幅度与另一项研究的优势比的幅度进行比较,因为不同的样本和不同的模型规格将具有不同的任意缩放因子。进一步的暗示是,在多项研究中,给定关联的比值比的大小无法在荟萃分析中进行综合。 一个小的模拟说明了这一点(R代码在问题的底部)。假设真实模型为: 进一步想象一下,由四个不同的研究人员使用逻辑回归分析了上述模型生成的相同数据。研究人员1仅包含作为协变量,研究人员2同时包含和,依此类推。四位研究人员的优势比的平均模拟估计值为:logit(yi)=1+log(2)x1i+log(2.5)x2i+log(3)x3i+0x4ilogit(yi)=1+log⁡(2)x1i+log⁡(2.5)x2i+log⁡(3)x3i+0x4i \mathrm{logit}(y_{i})=1 + \log(2)x_{1i} + \log(2.5)x_{2i} + \log(3)x_{3i} + 0x_{4i} x1x1x_{1}x1x1x_{1}x2x2x_{2}x1x1x_{1} res_1 res_2 res_3 res_4 1.679768 1.776200 2.002157 2.004077 显然,只有研究人员3和4获得了大约的正确比值比,而研究人员1和2没有。这在线性回归中不会发生,可以通过类似的模拟轻松显示(此处未显示)。我必须承认,尽管这个问题似乎是众所周知的,但这个结果对我来说却是令人惊讶的。Hernán等。(2011)将此称为“数学上的奇异性”,而不是偏见。222[2][2]^{[2]}[3][3]^{[3]} 我的问题: 如果各研究和模型之间的优势比基本上不可比,那么我们如何结合不同研究的结果以得出二元结果呢? 有什么可以对无数的元分析的结果可以说并从不同的研究结合起来,优势比,每个研究可能调整不同协变量集?他们本质上是无用的吗? 参考文献 [1]:Norton EC,Dowd BE,Maciejewski ML(2018年):赔率-当前最佳实践和使用。JAMA 320(1):84-85。 [2]:Norton EC,Dowd BE(2017年):对数赔率和Logit模型的解释。卫生服务水库。53(2):859-878。 [3]:HernánMA,Clayton D,Keiding N(2011):揭开了辛普森悖论的面纱。Int J Epidemiol 40:780-785。 揭露 问题(包括R代码)是用户timdisher在数据方法上提出的问题的修改版本。 R代码 set.seed(142857) n_sims <- 1000 # number …

2
如何参数化两个正态分布变量的比率或一个的倒数?
问题: 我正在参数化分布,以用作贝叶斯元分析中的先验和数据。数据在文献中以摘要统计的形式提供,几乎专门假定为正态分布(尽管所有变量均不能小于0,某些变量是比率,某些变量是质量,等等)。 我遇到了两种情况,但我没有解决方案。有时感兴趣的参数是数据的倒数或两个变量的比率。 例子: 两个正态分布变量的比率: 数据:氮和碳百分比的平均值和标准偏差 参数:碳氮比。 正态分布变量的倒数: 数据:质量/面积 参数:面积/质量 我当前的方法是使用仿真: 例如,对于一组碳和氮百分比数据,均值:xbar.n,c,方差:se.n,c,样本大小:nn,nc: set.seed(1) per.c <- rnorm(100000, xbar.c, se.c*n.c) # percent C per.n <- rnorm(100000, xbar.n, se.n*n.n) # percent N 我想参数化ratio.cn = perc.c / perc.n # parameter of interest ratio.cn <- perc.c / perc.n 然后为我的先前选择范围为的最佳拟合分布0 → ∞0→∞0 \rightarrow \infty library(MASS) dist.fig …

2
我可以在元回归中将效果大小作为自变量包括在内吗?
我的问题是,是否可以在元回归中将效应大小用作因变量,将另一个效应大小用作自变量?XXXYYY 例如,我对运动对饮酒问题的影响进行了荟萃分析,发现了显着的结果和高度异质性。我想做一个元回归,并使用这些干预措施对焦虑的影响大小作为自变量,并以饮酒问题的影响大小作为因变量(假设每项研究都评估了焦虑和饮酒问题,并且我计算了效果大小为对冲的)。ggg 你能理解这个吗?

2
为什么不对部分模拟的数据执行荟萃分析?
背景: 典型的心理学荟萃分析可能试图对两个变量X和Y之间的相关性进行建模。该分析通常涉及从文献中获得一组相关的相关性以及样本量。然后可以将公式应用于计算加权平均相关性。然后,可以进行分析以查看各个研究之间的相关性变化是否比随机抽样的单纯影响所暗示的变化大。 此外,可以使分析变得更加复杂。可以针对可靠性,范围限制等进行调整。相关性可以组合使用,以探索元结构方程建模或元回归等。 但是,所有这些分析都是使用摘要统计信息(例如,相关性,优势比,标准化的均值差)作为输入数据执行的。这需要使用接受汇总统计信息的特殊公式和过程。 荟萃分析的替代方法 因此,我正在考虑一种元分析的替代方法,其中将原始数据用作输入。即,对于相关性,输入数据将是用于形成相关性的原始数据。显然,在大多数荟萃分析中,即使不是大多数,实际的原始数据也无法获得。因此,基本过程可能如下所示: 与寻求原始数据的所有已发布作者联系,如果提供的话,请使用实际原始数据。 对于不提供原始数据的作者,请模拟原始数据,以使其具有与所报告的摘要统计相同的摘要统计。这样的模拟还可以合并从原始数据中获得的任何知识(例如,如果已知变量存在偏差等)。 在我看来,这种方法可能有几个好处: 使用原始数据作为输入的统计工具可用于分析 通过至少获取一些实际的原始数据,荟萃分析的作者将被迫考虑与实际数据相关的问题(例如,异常值,分布等)。 题 对真实的原始数据和模拟的数据进行荟萃分析研究是否存在任何问题,以使其具有与现有已发表研究相同的汇总统计数据? 这样的方法是否会优于对汇总统计数据执行荟萃分析的现有方法? 是否有现有文献讨论,主张或批评这种方法?


3
难道这些公式转换P,LSD,MSD,HSD,CI,以SE作为一个确切的或夸大/保守估计
背景 我正在进行一项荟萃分析,其中包括以前发布的数据。通常,用P值,最小显着差异(LSD)和其他统计数据报告处理之间的差异,但无法直接估算出差异。 在我使用的模型的上下文中,可以高估方差。 问题 这里是变换来的列表其中(萨维尔2003) ,我考虑,反馈理解; 下面,我假定α = 0.05所以1 - α / 2 = 0.975 和变量是正态分布的,除非另有说明:SESESESE=MSE/n−−−−−−−√SE=MSE/nSE=\sqrt{MSE/n} α = 0.05α=0.05\alpha=0.051 -α/2= 0.9751个-α/2=0.9751-^{\alpha}/_2=0.975 问题: 给定的,Ñ,和治疗手段ˉ X 1和ˉ X 2小号Ë = ˉ X 1 - ˉ X 2PPPññnX¯1个X¯1个\bar X_1X¯2X¯2\bar X_2 小号Ë= X¯1个- X¯2Ť(1 − P2,2 n − 2 )2 / n---√小号Ë=X¯1个-X¯2Ť(1个-P2,2ñ-2)2/ñSE=\frac{\bar X_1-\bar X_2}{t_{(1-\frac{P}{2},2n-2)}\sqrt{2/n}} …

1
R / mgcv:为什么te()和ti()张量积产生不同的曲面?
的mgcv软件包R具有两个功能,用于拟合张量积相互作用:te()和ti()。我了解两者之间的基本分工(拟合非线性交互与将这种交互分解为主要效果和交互)。我不明白的是为什么te(x1, x2)而ti(x1) + ti(x2) + ti(x1, x2)可能产生(略)不同的结果。 MWE(改编自?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f + rnorm(n)*0.2 par(mfrow = c(2,2)) # …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 


2
基于精度(即反方差)的加权是否是荟萃分析不可或缺的?
基于精度的加权是荟萃分析的核心吗?Borenstein等。(2009)写道,为了使荟萃分析成为可能,所有必要的是: 研究报告的点估计值可以表示为单个数字。 可以为该点估计计算方差。 我尚不清楚为什么(2)绝对必要。但是,实际上,所有被广泛接受的荟萃分析方法都依赖于基于精度的(即逆方差)加权方案,这确实需要估算每个研究的效应量的方差。请注意,虽然对冲方法(Hedges&Olkin,1985; Hedges&Vevea,1998)和Hunter and Schmidt's Method(Hunter&Schmidt,2004)基本上都使用样本大小加权,但这些方法仅适用于归一化均值差,因此需要其他地方的标准差。在每个研究中与方差成反比的权重将使总效应量估计器中的方差最小化是有意义的,那么这种加权方案是否是所有方法的必要特征? 是否有可能进行系统的评估而无需访问每种效应量的方差,仍将结果称为荟萃分析?当方差不可用时,样本量似乎有可能替代精度。例如,在一项将效应量定义为原始均值差的研究中,可以使用样本量权重吗?这将如何影响结果平均大小的一致性和效率?

1
在PET-PEESE和用于荟萃分析的多层次方法之间陷入困境:是否有快乐的媒介?
我目前正在进行荟萃分析,为此我需要分析样本中嵌套的多个效应大小。与部分其他可能的策略(例如,忽略依赖性,在研究中平均效应大小,选择一种效应大小或转移分析单位)。我的许多因果效应大小的相关性都涉及相当独特(但局部相关)的变量,因此对它们进行平均计算在概念上是没有意义的,即使这样做,也将我要分析的总因果大小数减少了近一半。 但是,与此同时,我也对在评估荟萃分析效果的过程中使用Stanley&Doucouliagos(2014)的解决出版偏见的方法感兴趣。简而言之,要么适合使用一种元回归模型,即可通过其各自的方差(精密效果测试或PET)或各自的标准误差(带有标准误差的精密效果估计值或PEESE)来预测研究效果的大小。根据拦截模型在PET模型中的重要性,可以使用PET模型的拦截(如果PET拦截p > .05)或PEESE模型(如果PET拦截p <.05)作为估计的发布-无偏差平均效果大小。 但是,我的问题源于Stanley&Doucouliagos(2014)的摘录: 在我们的模拟中,总是包含过多的无法解释的异质性。因此,按照常规做法,应优先选择REE [随机效应估计器],而不是FEE [固定效应估计器]。但是,当选择出版物时,常规做法是错误的。通过选择具有统计意义的变量,REE总是比FEE更为偏见(表3)。这种可预测的劣势归因于以下事实:REE本身就是简单平均数(具有最大的发布偏差)和FEE的加权平均值。 这段话使我相信,我不应该在随机效应/混合效应荟萃分析模型中使用PET-PEESE,但是多层次的荟萃分析模型似乎需要一个随机效应估计量。 我为该做的事而感到痛苦。我希望能够对我所有的依存效应大小进行建模,但同时要利用这种特殊的出版偏倚校正方法。我是否可以通过某种方式将3级荟萃分析策略与PET-PEESE合法整合? 参考文献 张铭华(2014)。使用三级荟萃分析来建模依赖效应的大小:一种结构方程式建模方法。心理学方法,19,211-229。 Stanley,TD,&Doucouliagos,H.(2014年)。元回归近似可减少出版物选择的偏见。研究综合方法,5,60-78。

3
如何获得总体r平方变化的置信区间
为了简单的示例,假设有两个线性回归模型 模型1有三个预测,x1a,x2b,和x2c 模型2具有从模型1 3个预测和两个附加的预测x2a和x2b 有一个种群回归方程,其中模型1 解释的种群方差为,模型解释为 。模型2解释的种群中的增量方差为ρ2(1)ρ(1)2\rho^2_{(1)}ρ2(2)ρ(2)2\rho^2_{(2)}Δ ρ2= ρ2(2 )- ρ2(1 )Δρ2=ρ(2)2−ρ(1)2\Delta\rho^2 = \rho^2_{(2)} - \rho^2_{(1)} 我有兴趣获取\ Delta \ rho ^ 2的估计量的标准误差和置信区间Δ ρ2Δρ2\Delta\rho^2。虽然该示例分别涉及3个和2个预测变量,但我的研究兴趣涉及大量不同数量的预测变量(例如5个和30个)。我首先想到的是使用 Δ [R2一dĴ= r2一dj (2 )- - [R2一dĴ (1 )Δradj2=radj(2)2−radj(1)2\Delta r^2_{adj} = r^2_{adj(2)} - r^2_{adj(1)}作为估计量并进行引导,但是我不确定是否会适当的。 问题 是Δ [R2一dĴΔradj2\Delta r^2_{adj}一个合理的估计Δ ρ2Δρ2\Delta \rho^2? 如何获得总体r平方变化的置信区间(即Δ ρ2Δρ2\Delta\rho^2)? 引导Δ ρ2Δρ2\Delta\rho^2是否适合计算置信区间? 任何对模拟或已发表文献的引用也将受到欢迎。 范例程式码 如果有帮助,我在R中创建了一个小的模拟数据集,可用于演示答案: …

1
那么,如何将贝叶斯估计包括在荟萃分析中呢?
受此问题启发,尤其是“问题3”: 除非提供频度高的参数化描述,否则后验分布很难纳入荟萃分析。 最近,我一直在考虑将荟萃分析合并到贝叶斯模型中(主要是作为先验信息的来源),但是如何朝另一个方向发展呢?如果贝叶斯分析确实确实变得更流行,并且变得非常容易合并到现有代码中(想到SAS 9.2及更高版本中的BAYES语句),我们应该更频繁地从文献中获得贝叶斯效应的估计。 让我们假设一下,有一位应用研究人员决定进行贝叶斯分析。使用与我在该问题上使用的相同的模拟代码,如果它们与常客框架一起使用,则会得到以下常客估计: log relative risk = 1.1009, standard error = 0.0319, log 95% CI = 1.0384, 1.1633 使用标准的,全缺省且无信息的先验BAYES语句分析,没有理由存在良好的对称置信区间或标准误差。在这种情况下,后验很容易用正态分布来描述,因此人们可以这样描述并“足够接近”,但是如果有人报告贝叶斯效应估计和不对称可信区间会怎样?是否有一种简单的方法可以将其包括在标准的荟萃分析中,还是需要将估计值塞入尽可能接近的参数化分布中?或者是其他东西?

1
使用metafor包在R中进行荟萃分析
在下面的小型荟萃分析的真实示例中,如何rma从metafor包中对函数进行语法化处理才能获得结果?(随机效应,摘要统计SMD) study, mean1, sd1, n1, mean2, sd2, n2 Foo2000, 0.78, 0.05, 20, 0.82, 0.07, 25 Sun2003, 0.74, 0.08, 30, 0.72, 0.05, 19 Pric2005, 0.75, 0.12, 20, 0.74, 0.09, 29 Rota2008, 0.62, 0.05, 24, 0.66, 0.03, 24 Pete2008, 0.68, 0.03, 10, 0.68, 0.02, 10
10 r  meta-analysis 

1
替代漏斗图,无需使用标准误差(SE)
在提交荟萃分析之前,我想作一个漏斗图以测试异质性和发表偏见。我有合并的效应大小和每个研究的效应大小,它们的取值范围是-1至+1。我有每个研究的患者和对照的样本量n1,n2。由于无法计算标准误差(SE),因此无法执行Egger回归。我不能在垂直轴上使用SE或precision = 1 / SE。 问题 我还能在水平轴突上用效应大小在垂直轴上用总样本大小n(n = n1 + n2)进行漏斗图吗? 这样的漏斗图应如何解释? 一些发表的论文提出了这样的漏斗图,在垂直轴上具有总样本大小(已发布的PMID:10990474、10456970)。同样,维基百科漏斗图维基对此也表示同意。但是,最重要的是,Mathhias Egger在BMJ 1999上的论文(PubMed PMID:9451274)显示了这样的漏斗图,没有SE,只有垂直轴上的样本大小。 更多问题 当标准误差未知时,这样的图可接受吗? 它与标准轴突上SE或presicion = 1 / SE的经典漏斗图相同吗? 它的解释不同吗? 我应该如何设置直线以形成等边三角形?

1
R线性回归分类变量“隐藏”值
这只是我多次遇到的示例,因此我没有任何示例数据。在R中运行线性回归模型: a.lm = lm(Y ~ x1 + x2) x1是一个连续变量。x2是分类的,具有三个值,例如“低”,“中”和“高”。但是,R给出的输出将类似于: summary(a.lm) Estimate Std. Error t value Pr(>|t|) (Intercept) 0.521 0.20 1.446 0.19 x1 -0.61 0.11 1.451 0.17 x2Low -0.78 0.22 -2.34 0.005 x2Medium -0.56 0.45 -2.34 0.005 我知道R在这种因素(x2是一个因素)上引入了某种虚拟编码。我只是想知道,如何解释x2“高”值?例如,x2在此处给出的示例中,“ High” 对响应变量有什么影响? 我在其他地方(例如这里)已经看到了这样的示例,但是还没有找到我能理解的解释。
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.