Questions tagged «sample-size»

这个标签是非常模糊的。当问题与样本大小有关且以下任何一项都不更合适时,请使用它:[小样本],[大数据],[功效分析],[功效],[不确定]或[不平衡类别]。

4
对于给定的估算技术和参数,样本应为多大?
是否有经验法则或什至没有任何方法来说明样本的大小,以便用给定数量的参数估计模型? 因此,例如,如果我想估计具有5个参数的最小二乘回归,则样本应为多大? 您使用哪种估计技术(例如,最大似然,最小二乘,GMM),或者要执行多少测试或什么测试,有关系吗?做出决定时是否应考虑样本变异性?

1
为什么选择K会降低我的交叉验证分数?
在使用scikit-learn中的Boston Housing数据集和RandomForestRegressor(带有默认参数)时,我注意到了一些奇怪的事情:随着将折叠数增加到10以上,交叉验证平均得分降低了。我的交叉验证策略如下: cv_met = ShuffleSplit(n_splits=k, test_size=1/k) scores = cross_val_score(est, X, y, cv=cv_met) ... num_cvs变化多端。我设置test_size为1/num_cvs镜像k倍CV的训练/测试拆分大小行为。基本上,我想要类似k-fold CV的东西,但是我也需要随机性(因此ShuffleSplit)。 将该试验重复几次,然后绘制平均得分和标准差。 (请注意,的大小k由圆的面积表示;标准偏差在Y轴上。) 一致地,增加k(从2到44)会导致得分短暂增加,然后k随着进一步增加(超过10倍)而稳步下降!如果有的话,我希望更多的培训数据会导致分数略有提高! 更新资料 更改评分标准以表示绝对错误会导致我预期的行为:评分会随着K折CV中的折叠数增加而提高,而不是接近0(默认值为' r2 ')。问题仍然是,为什么默认得分指标导致均值和STD指标的性能下降,而折叠次数却越来越多。

1
引导程序是否适合此连续数据?
我是一个完整的新手:) 我正在从大约745,000的人口中进行10,000个样本量的研究。每个样本代表一个“百分比相似度”。大部分样本在97%-98%左右,但少数样本在60%到90%之间,也就是说,分布严重负向倾斜。约0.6%的结果为0%,但这些将与样品分开处理。 所有10,000个样本的平均值为97.7%,仅在Excel中,StdDev为3.20。我知道StdDev在这里并不是真正适用的,因为结果不是正态分布的(因为+3.20会使您超过100%!)。 我的问题是: 自举(对我来说是个新概念)是否合适? 我是否正确引导:) 足够的样本量是多少? 我正在做的是对10,000个结果进行重新采样(并替换)并计算新的均值。我执行了数千次,并将每个均值存储在一个数组中。然后,我计算“均值”,这是我的统计结果。要计算出99%的置信区间,我选择了第0.5%的值和第99.5%的值,这产生了非常狭窄的范围:97.4%-98.0%。这是有效的结果,还是我做错了什么? 至于样本量,我仅抽样了约1.3%的人口-我不知道这是否足够。我如何知道我的样本是否代表人群?理想情况下,我希望对+/- 0.50%的平均值(即97.2%-98.2%)有99%的信心。 在此先感谢您提供任何提示!

4
一项研究超负荷意味着什么?
一项研究超负荷意味着什么? 我的印象是,这意味着您的样本量太大,以至于您有能力检测微小的效应量。这些影响的大小可能很小,以至于它们比变量之间的因果关系(不一定是直接因果关系)更可能是由采样过程中的轻微偏差引起的。 这是正确的直觉吗?如果是这样,我不认为有什么大不了的,只要以这种方式解释结果,然后您手动检查并查看估计的效果大小是否足够大以至于“有意义”。 我想念什么吗?关于在这种情况下该怎么做,有更好的建议吗?

1
确定一组广告中哪个具有最高点击率所需的样本量
我是一名行业软件设计师,并且正在为一个客户从事项目,因此我想确保我的分析在统计上是正确的。 考虑以下情况: 我们有n个广告(n <10),我们只是想知道哪个广告效果最好。 我们的广告服务器将随机投放这些广告之一。成功的前提是用户点击了广告-我们的服务器会对其进行跟踪。 给出:置信区间:95% 问题:估计的样本量是多少?(我们必须投放多少个广告),为什么?(记住我是个假人) 谢谢

4
单变量逻辑回归的样本量计算
如何计算一项研究所需的样本量,在该研究中,一组受试者将在手术时测量一个连续变量,然后在两年后将其分类为功能预后或预后不良。 我们想看看这种测量是否可以预测出不良的结果。在某个时候,我们可能想在连续变量中得出一个切入点,在该切入点之上,我们将尝试进行干预以减少结果受损的可能性。 有任何想法吗?任何R实现。

1
R / mgcv:为什么te()和ti()张量积产生不同的曲面?
的mgcv软件包R具有两个功能,用于拟合张量积相互作用:te()和ti()。我了解两者之间的基本分工(拟合非线性交互与将这种交互分解为主要效果和交互)。我不明白的是为什么te(x1, x2)而ti(x1) + ti(x2) + ti(x1, x2)可能产生(略)不同的结果。 MWE(改编自?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f + rnorm(n)*0.2 par(mfrow = c(2,2)) # …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
SurveyMonkey是否会忽略您获得非随机样本的事实?
SurveyMonkey提供了一些步骤和图表,可根据您的总体数量来确定在给定的误差范围或置信区间内需要的样本量。 SurveyMonkey样本大小 该图表是否只是忽略了这样一个事实,即您只会得到那些愿意回答调查问卷的人,因此不会获得随机样本? 当我输入此内容时,我会收到警告,问题似乎是主观的,所以也许我没有正确询问。它不是真的与SurveyMonkey有关,而是一个更笼统的问题-您是否可以使用一些我不知道的高级技术从自愿响应数据中实际计算出置信区间? 在出口民意测验或国家调查中,显然他们必须处理这个问题。我的教育并未深入探讨调查抽样技术,但我认为它涉及收集人口统计数据,并以此来了解您所代表的样本的代表性。 除此之外,对于一个简单的在线调查,他们是否只是假设那些愿意回答的人是整个人口的随机样本?

2
基于精度(即反方差)的加权是否是荟萃分析不可或缺的?
基于精度的加权是荟萃分析的核心吗?Borenstein等。(2009)写道,为了使荟萃分析成为可能,所有必要的是: 研究报告的点估计值可以表示为单个数字。 可以为该点估计计算方差。 我尚不清楚为什么(2)绝对必要。但是,实际上,所有被广泛接受的荟萃分析方法都依赖于基于精度的(即逆方差)加权方案,这确实需要估算每个研究的效应量的方差。请注意,虽然对冲方法(Hedges&Olkin,1985; Hedges&Vevea,1998)和Hunter and Schmidt's Method(Hunter&Schmidt,2004)基本上都使用样本大小加权,但这些方法仅适用于归一化均值差,因此需要其他地方的标准差。在每个研究中与方差成反比的权重将使总效应量估计器中的方差最小化是有意义的,那么这种加权方案是否是所有方法的必要特征? 是否有可能进行系统的评估而无需访问每种效应量的方差,仍将结果称为荟萃分析?当方差不可用时,样本量似乎有可能替代精度。例如,在一项将效应量定义为原始均值差的研究中,可以使用样本量权重吗?这将如何影响结果平均大小的一致性和效率?

2
如何为小样本数据选择训练,交叉验证和测试集大小?
假设我的样本量较小,例如N = 100,并且有两个类别。如何为机器学习选择训练,交叉验证和测试集的大小? 我会直觉地选择 训练集大小为50 交叉验证集大小为25,并且 测试大小为25。 但这可能或多或少都有意义。我应该如何真正确定这些价值?我可以尝试其他选择吗(尽管我认为它不是那么可取……过度学习的可能性增加了)? 如果我上两节课以上怎么办?


3
当零假设为
我想对来自二项式数据的单个样本进行功效分析,H0:p=0H0:p=0H_0: p = 0,而H1:p=0.001H1:p=0.001H_1: p = 0.001,其中ppp是总体中成功的比例。如果0&lt;p&lt;10&lt;p&lt;10 < p <1,我可以使用任一的正态近似二项式,或χ2χ2\chi^2 -test,但与p=0p=0p =0,这些都失败。我很想知道是否可以进行这种分析。我非常感谢您的任何建议,评论或参考。非常感谢!

1
为什么Anova()和drop1()为GLMM提供了不同的答案?
我有以下形式的GLMM: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) 当我使用时drop1(model, test="Chi"),我得到的结果与Anova(model, type="III")从汽车包装或汽车上获得的结果不同summary(model)。后两个给出相同的答案。 通过使用大量虚构数据,我发现这两种方法通常没有区别。对于平衡线性模型,不平衡线性模型(不同组中的n不相等)和平衡广义线性模型,它们给出相同的答案,但对于平衡广义线性混合模型,它们给出相同的答案。因此看来,只有在包括随机因素的情况下,这种矛盾才会显现出来。 为什么这两种方法之间存在差异? 使用GLMM时应使用Anova()还是drop1()应使用? 至少就我的数据而言,两者之间的差异很小。哪一个使用都重要吗?
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

1
替代漏斗图,无需使用标准误差(SE)
在提交荟萃分析之前,我想作一个漏斗图以测试异质性和发表偏见。我有合并的效应大小和每个研究的效应大小,它们的取值范围是-1至+1。我有每个研究的患者和对照的样本量n1,n2。由于无法计算标准误差(SE),因此无法执行Egger回归。我不能在垂直轴上使用SE或precision = 1 / SE。 问题 我还能在水平轴突上用效应大小在垂直轴上用总样本大小n(n = n1 + n2)进行漏斗图吗? 这样的漏斗图应如何解释? 一些发表的论文提出了这样的漏斗图,在垂直轴上具有总样本大小(已发布的PMID:10990474、10456970)。同样,维基百科漏斗图维基对此也表示同意。但是,最重要的是,Mathhias Egger在BMJ 1999上的论文(PubMed PMID:9451274)显示了这样的漏斗图,没有SE,只有垂直轴上的样本大小。 更多问题 当标准误差未知时,这样的图可接受吗? 它与标准轴突上SE或presicion = 1 / SE的经典漏斗图相同吗? 它的解释不同吗? 我应该如何设置直线以形成等边三角形?

2
随机效应模型中每个群集的最小样本量
随机效应模型中每个聚类的观察数量是否合理?我有1,500个样本,其中700个聚类被建模为可交换随机效应。我可以选择合并群集,以构建较少但较大的群集。我想知道如何选择每个聚类的最小样本量,以便在预测每个聚类的随机效应时获得有意义的结果?有一篇很好的论文可以解释这一点吗?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.