Questions tagged «random-allocation»

4
(某些)伪随机化有什么问题
我遇到了一项研究,其中对50岁以上的患者按出生年份进行了伪随机分组。如果出生年份是偶数,则通常护理,如果是奇数,则进行干预。 它更容易实现,更难颠覆(很容易检查病人应该接受的治疗),很容易记住(任务进行了数年)。但是,我仍然不喜欢它,我觉得适当的随机化会更好。但我无法解释原因。 我是否感觉错了?还是有充分的理由倾向于“真正的”随机化?

2
扔硬币是将一组随机分为两组的一种公平方法吗?
因此,我自己和叔叔都在争论一次硬币翻转是否真的是随机的。我认为这不是因为实际上硬币投掷者总是会操纵硬币,所以结果不是50/50,因此,作为在临床试验中分配组的随机化技术不是一个好的选择。但是他认为,抛硬币的微小缺陷是造成随机性的原因。因此,他然后假定了一种机器,该机器将永远能够抛弃一个公平的硬币,并使它落在头上,说实话,我只需要有人为我解决这个论点。扔硬币是将一组随机分为两组的一种公平方法吗?

2
小样本随机化可靠吗?
杰罗姆·康菲尔德(Jerome Cornfield)写道: 渔业革命的最好成果之一就是随机化的想法,而在其他几件事上达成共识的统计学家至少对此达成了共识。但是尽管达成了这一协议,并且尽管在临床和其他形式的实验中广泛使用了随机分配程序,但其逻辑状态(即其执行的确切功能)仍然不清楚。 杰罗姆·康菲尔德(1976)。“对临床试验的最新方法论贡献”。美国流行病学杂志104(4):408–421。 在整个站点以及各种文献中,我始终看到关于随机化能力的自信主张。诸如“它消除了混杂变量的问题”之类的强大术语很常见。例如,请参见此处。但是,出于实际/伦理的原因,很多时候都使用小样本(每组3-10个样本)进行实验。这在使用动物和细胞培养物进行临床前研究中非常普遍,研究人员通常报告p值以支持其结论。 这让我想知道,随机化在平衡混淆方面有多好。对于这个图,我模拟了一个比较治疗组和对照组的情况,其中一个混杂物可能以50/50的机会出现两个值(例如,type1 / type2,male / female)。它显示了用于研究各种小样本数量的“不平衡百分比”(处理样本与对照样本之间的type1#的差异除以样本数量)的分布。红线和右侧轴显示ecdf。 小样本量下,随机化下各种程度的平衡概率: 从这个情节可以清楚地看出两件事(除非我在某个地方搞砸了)。 1)随着样本数量的增加,获得完全平衡样本的可能性降低。 2)随着样本数量的增加,获得非常不平衡的样本的可能性降低。 3)在两组中n = 3的情况下,有3%的机会获得一组完全不平衡的组(对照组中的所有type1,治疗中的所有type2)。N = 3在分子生物学实验中很常见(例如,通过PCR测量mRNA或通过蛋白质印迹法测量蛋白质) 当我进一步检查n = 3的情况时,我观察到在这些条件下p值的奇怪行为。左侧显示类型2子组在不同均值条件下使用t检验计算的p值的总体分布。类型1的平均值为0,两组的sd = 1。右侧面板显示了从0.05到0.0001的名义“显着性临界值”的相应假阳性率。 通过t检验比较时,n = 3的p值在n = 3时具有两个子组和第二子组的平均值不同(10000个蒙特卡洛分析): 这是两组的n = 4的结果: 两个组的n = 5: 两组的n = 10: 从上面的图表可以看出,样本量和子组之间的差异之间似乎存在相互作用,这导致在原假设下不一致的各种p值分布。 因此,我们可以得出结论:对于小样本量的适当随机化和受控实验,p值不可靠吗? 第一图的R代码 require(gtools) #pdf("sim.pdf") par(mfrow=c(4,2)) for(n in c(3,4,5,6,7,8,9,10)){ #n<-3 p<-permutations(2, n, …

3
出版物中有哪些潜伏变量在受控实验中的例子?
在本文中: 潜伏变量:一些示例 Brian L. Joiner,《美国统计学家》第 35,第4号,1981年11月227-233 布莱恩·乔纳(Brian Joiner)声称“随机化不是万能药”。这与以下常见声明相反: 一个经过精心设计的实验包括一些设计功能,这些功能使研究人员可以消除无关的变量,以解释所观察到的自变量与因变量之间的关系。这些无关的变量称为潜伏变量。 引文来自这个问题,没有任何消息来源,但以我的经验,它代表了当时的主流态度: 潜伏变量和有影响力的观察的例子 给出的一个例子是,在70年代测试40号红色食用染料对啮齿动物的安全性(特别是致癌作用)时,发现笼子位置的影响使这项研究感到困惑。现在,我已经阅读了许多研究啮齿动物致癌作用的期刊文章,却从未见过有人报告过控制这种作用的报道。 这些研究的进一步讨论可以在这里找到: 监管过程中的统计案例研究:FD&C Red No. 40实验。 我找不到非付费版本,但以下是摘录: 在1月的会议上,我们进行了初步分析(14),该分析揭示了笼行与RE(网状内皮肿瘤)死亡率之间的密切相关,其死亡率从17%(下排)到32%(上排)不等(表2)。我们无法通过性别,剂量组,机架列或位置来解释这种强烈的关联。随后的分析(18)也表明笼子的位置(前部和后部)可能与非RE死亡相关,而该位置与非RE死亡时间相关。 我特别想知道为什么医学文献中的复制似乎存在这样的问题,但是欢迎所有领域的例子。请注意,我对随机对照实验(而非观察性研究)中的示例感兴趣。

1
为什么Anova()和drop1()为GLMM提供了不同的答案?
我有以下形式的GLMM: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) 当我使用时drop1(model, test="Chi"),我得到的结果与Anova(model, type="III")从汽车包装或汽车上获得的结果不同summary(model)。后两个给出相同的答案。 通过使用大量虚构数据,我发现这两种方法通常没有区别。对于平衡线性模型,不平衡线性模型(不同组中的n不相等)和平衡广义线性模型,它们给出相同的答案,但对于平衡广义线性混合模型,它们给出相同的答案。因此看来,只有在包括随机因素的情况下,这种矛盾才会显现出来。 为什么这两种方法之间存在差异? 使用GLMM时应使用Anova()还是drop1()应使用? 至少就我的数据而言,两者之间的差异很小。哪一个使用都重要吗?
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

3
非随机样本的随机化
我总是对参加实验研究的心理广告感到惊讶。可以肯定的是,对这些广告做出回应的人们并不是随机抽样的,因此是一个自我选择的人群。 因为众所周知,随机化解决了自选问题,所以我想知道非随机样本的随机化是否真的改变了一切。 你怎么看 ?而且,我们应该基于大量自选样本对所有这些心理实验做些什么?

1
反对随机化
史蒂文·皮安塔多西(Steven Piantadosi)在临床试验-方法论观点中写道(第13章,第334页): 在第二章中,我注意到了Abel和Koch(1997)和Urbach(1993)对随机化的反对,并指出了研究他们的担忧和可能的错误的价值。他们拒绝将随机化视为 验证某些统计测试的方法, 因果推理的基础, 便于掩盖,以及 平衡比较组的方法。 据我说,(1)-(4)是随机化的好处。那么,为什么亚伯(Abel),科赫(Koch)和乌尔巴赫(Urbach)基于这些论点拒绝随机化呢?

3
随机分配:为什么要打扰?
随机分配很有价值,因为它可以确保治疗与潜在结果的独立性。这就是如何导致对平均治疗效果的无偏估计。但是其他分配方案也可以系统地确保治疗与潜在结果的独立性。那么为什么我们需要随机分配呢?换句话说,与非随机分配方案相比,随机分配又有什么优点呢? 令为治疗分配的向量,其中每个元素为0(未分配给治疗的单位)或1(分配给治疗的单位)。在一个JASA制品,安格里斯特,Imbens,和Rubin(1996,446-47)说治疗分配是随机的,如果表示所有\ mathbf {c}和\ mathbf {c'},使得\ iota ^ T \ mathbf {c} = \ iota ^ T \ mathbf {c'},其中\ iota是一个所有元素等于1的列向量。ZZ\mathbf{Z}ZiZiZ_iPr(Z=c)=Pr(Z=c′)Pr(Z=c)=Pr(Z=c′)\Pr(\mathbf{Z} = \mathbf{c}) = \Pr(\mathbf{Z} = \mathbf{c'})cc\mathbf{c}c′c′\mathbf{c'}ιTc=ιTc′ιTc=ιTc′\iota^T\mathbf{c} = \iota^T\mathbf{c'}ιι\iota 换句话说,如果包括m个治疗分配的任何分配向量与包括m个治疗分配的任何其他向量一样有可能,则分配ZiZiZ_i是随机的。mmmmmm 但是,为了确保潜在结果与治疗分配的独立性,足以确保研究中的每个单元都具有相等的分配给治疗的可能性。即使大多数治疗分配向量的选择概率为零,也很容易发生这种情况。即,即使在非随机分配下也可能发生。 这是一个例子。我们想用四个单元运行一个实验,其中两个单元将被正确处理。有六个可能的分配向量: 1100 1010 1001 0110 0101 0011 每个数字中的第一个数字表示是否已治疗第一个单元,第二个数字表示是否已治疗第二个单元,依此类推。 假设我们进行了一个实验,其中排除了赋值向量3和4的可能性,但是其中每个其他向量的选择机会均等(25%)。从AIR的意义上讲,该方案不是随机分配。但可以预料的是,这将导致平均治疗效果的无偏估计。那绝不是偶然的。任何给予受试者相等分配给治疗可能性的分配方案,将允许对ATE进行无偏估计。 那么:为什么我们需要AIR的随机分配?我的论点植根于随机推理。如果有人以基于模型的推理来思考,那么AIR的定义似乎更可辩护吗?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.