Questions tagged «bootstrap»

引导程序是一种重采样方法,用于估计统计信息的采样分布。

1
自举样本均值时是否需要居中?
当阅读有关如何近似估计样本均值的分布时,我遇到了非参数自举方法。显然,可以通过的分布来近似的分布,其中表示样本均值引导程序样本。X¯n−μX¯n−μ\bar{X}_n-\muX¯∗n−X¯nX¯n∗−X¯n\bar{X}_n^*-\bar{X}_nX¯∗nX¯n∗\bar{X}_n^* 然后我的问题是:我需要居中吗?做什么的? 我不能只用近似吗?P(X¯n≤x)P(X¯n≤x)\mathbb{P}\left(\bar{X}_n \leq x\right)P(X¯∗n≤x)P(X¯n∗≤x)\mathbb{P}\left(\bar{X}_n^* \leq x\right)

1
自举是评估中位数估计不确定性的有效方法吗?
自举法很好地处理了均值估计中的不确定性,但是我记得在某个地方阅读引导程序并不能很好地评估分位数估计中的不确定性(尤其是中位数)。 我不记得在哪里读过这篇文章,并且无法通过Google快速搜索找到很多东西。对此的想法和任何参考将不胜感激。

3
如何比较自举回归斜率?
让我们假设我有两个数据集,分别具有n个对独立变量x和因变量y的数据对的观察。让我们进一步假设,我想通过将观察值(替换后)自举N次并计算回归y = a + bx来生成每个数据集的回归斜率分布。每一次。我如何比较两个分布,以说斜率明显不同?用于测试分布中位数之间差异的U检验将严重依赖于N,即,我重复自举的次数越多,差异将越显着。我如何计算分布之间的重叠来确定显着差异?

2
了解引导进行验证和模型选择
我想我了解引导程序的基本原理,但是不确定如何使用引导程序进行模型选择或避免过度拟合。 例如,对于模型选择,您是否只选择在其自举样本中产生最低误差(也许是方差?)的模型? 是否有任何文章讨论如何使用自举进行模型选择或验证? 编辑:请参阅此线程,以及@ mark999的答案,以获取此问题后面的更多上下文。

2
在结构方程模型中拥有非常小的样本的复杂性
我正在Amos 18中运行结构方程模型(SEM)。我正在为我的实验寻找100名参与者(宽松使用),这可能不足以进行成功的SEM。反复告诉我,SEM(以及EFA,CFA)是一种“大样本”统计程序。长话短说,我没有参加100名参与者(这真是令人惊讶!),并且在排除两个有问题的数据点之后只有42个参与者。出于兴趣,我还是尝试了该模型,令我惊讶的是,它看起来非常合适!CFI> .95,RMSEA <.09,SRMR <.08。 该模型并不简单,实际上我会说它相对复杂。我有两个潜在变量,一个有两个观测变量,另一个有5个观测变量。我在模型中还有四个观察到的变量。间接变量和直接变量之间存在许多关系,例如,某些变量是其他四个变量内生的。 我对SEM有点陌生;但是,我认识的两个非常熟悉SEM的人告诉我,只要拟合指标良好,效果是可以解释的(只要它们很重要),并且该模型没有任何明显的“错误”。我知道某些适合度指标在暗示良好适合度方面偏向或反对小样本,但我前面提到的三个指标似乎不错,而且我相信也没有类似偏见。为了测试间接影响,我使用引导程序(2000个样本左右),90%的偏差校正了信心,蒙特卡洛。另外需要注意的是,我针对三种不同的条件运行三种不同的SEM。 我有两个问题,我希望一些人可以考虑,如果您有贡献,请回答: 我的模型是否存在没有通过拟合指数证明的重大弱点?小样本将突出显示该研究的弱点,但我想知道是否存在一些我完全没有注意到的巨大统计问题。我计划将来再增加10至20名参与者,但这仍将为我提供相对较小的样本进行此类分析。 给我很小的样本,或者在使用它的上下文中,我使用引导程序是否有任何问题? 我希望这些问题对本论坛来说不是太“基本”。我已经阅读了许多关于SEM和相关问题的章节,但是我发现人们在这方面的观点非常分散! 干杯

1
测试两个独立样本是否存在相同的偏斜?
哪些检验可用于检验两个独立样本的零假设,即它们来自具有相同偏斜的总体?有一个经典的1样本测试来检查偏斜是否等于一个固定数字(该测试涉及第6个采样矩!);有2个样本测试的直接翻译吗? 是否存在不涉及大量数据的技术?(我期待以'bootstrap it'的形式回答:已知Bootstrap技术适合于此问题吗?)

1
t检验的“近似正常”评估
我正在使用Welch的t检验来测试均值。底层分布远非正常分布(比此处相关讨论的示例更偏斜)。我可以获取更多数据,但希望有一些原则性的方法来确定在多大程度上可以这样做。 是否有一个很好的试探法可以评估样本分布是否可以接受?与正常性的哪些偏差最令人担忧? 是否还有其他方法(例如,对样本统计数据依赖引导置信区间)会更有意义?

1
千斤顶有当代用途吗?
问题是: 自举优于捆绑。但是,我想知道是否存在套刀技术是唯一或至少可行的方法来表征参数估计值的不确定性。此外,在实际情况下,相对于自举,斜切是如何产生偏见/不准确的,在开发更复杂的引导程序之前,斜切结果能否提供初步的见解? 某些情况: 朋友正在使用黑盒机器学习算法(MaxEnt)对“仅在场”或“仅在场”的地理数据进行分类。一般模型评估通常使用交叉验证和ROC曲线进行。但是,她正在使用模型的输出来导出模型输出的单个数字描述,并希望该数字周围有一个置信区间;折磨似乎是表征此值不确定性的一种合理方法。引导似乎没有意义,因为每个数据点都是地图上的唯一位置,无法通过替换进行重新采样。建模程序本身也许能够最终提供她所需要的东西。但是,我对一般情况是否有用/什么时候使您感兴趣。

1
为什么不总是使用引导CI?
我想知道自举CI(以及Bca中的BCa)对正态分布数据的性能如何。似乎有很多工作要检查它们在各种类型的分布上的性能,但是在正态分布的数据上找不到任何东西。由于首先学习似乎很显然,所以我认为论文太旧了。 我使用R引导程序包进行了一些蒙特卡洛仿真,发现引导CI与精确的CI一致,尽管对于小样本(N <20),它们倾向于比较宽松(较小的CI)。对于足够大的样本,它们基本上是相同的。 这使我想知道是否有充分的理由不总是使用引导程序。鉴于评估分布是否正常的难度很大,并且存在许多陷阱,因此,不管分布如何,都不决定和报告引导配置项似乎是合理的。我了解不系统地使用非参数测试的动机,因为它们的功能较少,但是我的模拟告诉我,引导CI并非如此。它们甚至更小。 让我感到困扰的一个类似问题是,为什么不总是使用中位数作为集中趋势的度量。人们通常建议使用它来表征非正态分布的数据,但是由于中位数与正态分布数据的平均值相同,为什么要加以区别?如果我们可以摆脱确定分布是否正常的过程,这似乎是非常有益的。 我很好奇您对这些问题的想法,以及它们是否曾经被讨论过。参考将不胜感激。 谢谢! 皮埃尔

5
如何在大量数据点中进行值的插补?
我的数据集非常大,大约缺少5%的随机值。这些变量相互关联。以下示例R数据集只是一个具有虚拟相关数据的玩具示例。 set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, sep ="") rownames(xmat) <- paste("sample", 1:200, sep = "") #M variables are correlated N <- 2000000*0.05 # 5% random missing values inds <- round ( runif(N, 1, length(xmat)) …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

1
如何执行自举测试以比较两个样本的均值?
我有两个严重偏斜的样本,正在尝试使用自举比较t统计量的均值。 正确的做法是什么? 我正在使用的过程 当我知道原始数据或观察到的数据不是正态分布时,我会担心在最后一步中使用标准误差的适当性。 这是我的步骤: 引导程序-随机抽样替换(N = 1000) 为每个引导程序计算t统计量以创建t分布: T(b)=(X¯¯¯¯b1−X¯¯¯¯b2)−(X¯¯¯¯1−X¯¯¯¯2)σ2xb1/n+σ2xb2/n−−−−−−−−−−−−−√T(b)=(X¯b1−X¯b2)−(X¯1−X¯2)σxb12/n+σxb22/n T(b) = \frac{(\overline{X}_{b1}-\overline{X}_{b2})-(\overline{X}_1-\overline{X}_2) }{\sqrt{ \sigma^2_{xb1}/n + \sigma^2_{xb2}/n }} 通过获取t分布的和百分位数来估计t置信区间α/2α/2\alpha/21−α/21−α/21-\alpha/2 通过以下方式获取置信区间: CIL=(X¯¯¯¯1−X¯¯¯¯2)−T_CIL.SEoriginalCIL=(X¯1−X¯2)−T_CIL.SEoriginal CI_L = (\overline{X}_1-\overline{X}_2) - T\_{CI_L}.SE_{original} CIU=(X¯¯¯¯1−X¯¯¯¯2)+T_CIU.SEoriginalCIU=(X¯1−X¯2)+T_CIU.SEoriginal CI_U = (\overline{X}_1-\overline{X}_2) + T\_{CI_U}.SE_{original} ,其中 SE=σ2X1/n+σ2X2/n−−−−−−−−−−−−√SE=σX12/n+σX22/n SE = \sqrt{ \sigma^2_{X1}/n + \sigma^2_{X2}/n } 查看置信区间落在哪里,以确定均值是否存在显着差异(即非零) 我也查看了Wilcoxon秩和,但由于分布严重偏斜(例如,第75个== 95%),因此给出的结果并不十分合理。因此,我想进一步探讨自举t检验。 所以我的问题是: 这是合适的方法吗? 当我知道观测到的数据严重偏斜时,使用SE合适吗? 可能重复:首选哪种方法,引导测试或非参数基于等级的测试?

2
如何在多个插补数据集中合并自举的p值?
我担心的问题是,我想从乘归(MI)数据中引导p值来估计,但是我不清楚如何在MI集合中组合p值。θθ\theta 对于MI数据集,获得估计总方差的标准方法使用Rubin规则。有关合并MI数据集的评论,请参见此处。总方差的平方根用作的标准误差估计。但是,对于某些估计量,总方差没有已知的闭合形式,或者采样分布不正常。然后,统计量可能不是t分布的,甚至不是渐近的。θ / 小号ë (θ )θθ\thetaθ / 塞e (θ )θ/se(θ){\theta}/{se(\theta)} 因此,在完整数据的情况下,即使采样分布不是正态且其闭合形式未知,一种替代方法是引导统计信息以找到方差,p值和置信区间。在MI的情况下,有两个选择: 跨MI数据集合并自举差异 跨MI数据集合并p值或置信范围 然后,第一种选择将再次使用鲁宾规则。但是,如果具有非正态采样分布,则我认为这是有问题的。在这种情况下(或更一般而言,在所有情况下),可以直接使用自举p值。但是,在MI的情况下,这将导致多个p值或置信区间,需要将其跨MI数据集合并。θθ\theta 所以我的问题是:如何在多个估算数据集之间合并多个自举p值(或置信区间)? 我欢迎任何有关如何进行的建议,谢谢。

2
何时使用引导与贝叶斯技术?
我有一个涉及可靠性测试的相当复杂的决策分析问题,而逻辑方法(对我而言)似乎涉及使用MCMC支持贝叶斯分析。但是,已经建议使用引导方法会更合适。有人可以提出一个(或三个)参考文献来支持使用另一种技术(即使在特定情况下)吗?FWIW,我有来自多个不同来源的数据,很少/零故障观察。我也有子系统和系统级别的数据。 似乎应该可以进行这样的比较,但是我没有找到通常的嫌疑人。在此先感谢您提供任何指导。

1
通过对相关观测值进行自举计算置信区间
如果观测值是iid,则标准形式的引导程序可用于计算估计统计量的置信区间。I.Visser 等。在“ 隐藏的马尔可夫模型参数的置信区间 ”中,使用了参数引导程序来计算HMM参数的CI。但是,当我们在观察序列上拟合HMM时,我们已经假设观察是相关的(与混合模型相反)。 我有两个问题: iid假设与引导程序有什么关系? 我们可以忽略参数引导程序中的iid要求吗? Visser 等。方法简述如下: 假设我们有一个观察序列是通过对HMM进行采样得到的,该HMM具有一组真实的但未知的参数。Y=o1,o2,...,onY=o1,o2,...,onY=o_1,o_2,...,o_nθ=θ1,θ2,...,θlθ=θ1,θ2,...,θl\theta=\theta_1,\theta_2,...,\theta_l 可以使用EM算法估算参数:θ^=θ^1,θ^2,...,θ^lθ^=θ^1,θ^2,...,θ^l\hat{\theta}=\hat{\theta}_1,\hat{\theta}_2,...,\hat{\theta}_l 使用估计的HMM生成大小为的引导程序样本:nnnY∗=o∗1,o∗2,...,o∗nY∗=o1∗,o2∗,...,on∗Y^*=o^*_1,o^*_2,...,o^*_n 根据引导程序样本估计HMM的参数:θ^∗=θ^∗1,θ^∗2,...,θ^∗lθ^∗=θ^1∗,θ^2∗,...,θ^l∗\hat{\theta}^*=\hat{\theta}^*_1,\hat{\theta}^*_2,...,\hat{\theta}^*_l 重复步骤3和4次(例如 = 1000),得出引导估计:乙乙θ *(1 ),θ *(2 ),。。。,θ *(乙)BBBBBBBBBθ^∗(1),θ^∗(2),...,θ^∗(B)θ^∗(1),θ^∗(2),...,θ^∗(B)\hat{\theta}^*(1),\hat{\theta}^*(2),...,\hat{\theta}^*(B) 使用引导程序估计中的分布来计算每个估计参数的CI 。 θ * 我θ^iθ^i\hat{\theta}_iθ^∗iθ^i∗\hat{\theta}^*_i 笔记(我的发现): 为了具有正确的覆盖范围,应该使用百分位数方法来计算CI(正态性是一个错误的假设)。 自举分布的偏差应得到纠正。意味着的分布均值应移至θ我θ^∗iθ^i∗\hat{\theta}^*_iθ^iθ^i\hat{\theta}_i

2
我们可以使用比原始样本小的引导样本吗?
我想使用自举来估计N = 250个公司和T = 50个月的面板数据集中的估计参数的置信区间。由于使用卡尔曼滤波和复杂的非线性估计,参数的估计在计算上是昂贵的(几天的计算)。因此,即使是自举的基本方法,也无法从原始样本中抽取(替换)B(成百上千个)M = N = 250个公司的B个样本并估计参数B次是不可行的。 因此,我正在考虑对引导程序样本使用较小的M(例如10)(而不是N = 250的完整大小),并通过从原始公司替换而随机抽取,然后使用缩放模型参数的引导程序估计协方差矩阵(在上面的示例中为1/25)来计算在完整样本上估算的模型参数的协方差矩阵。1个ñ中号1NM\frac{1}{\frac{N}{M}} 然后,可以基于正态假设或基于经验的估计置信区间,对于较小的样本,可以使用类似的程序进行缩放(例如,缩小。1个ñ中号√1NM\frac{1}{\sqrt{\frac{N}{M}}} 这种解决方法有意义吗?有理论结果证明这一点吗?还有其他解决方案吗?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.