Questions tagged «hypothesis-testing»

假设检验评估数据是否与给定假设不一致,而不是随机波动的影响。

3
我可以使用什么测试来比较两个或多个回归模型的斜率?
我想测试两个变量对一个预测变量的响应差异。这是一个最小的可复制示例。 library(nlme) ## gls is used in the application; lm would suffice for this example m.set <- gls(Sepal.Length ~ Petal.Width, data = iris, subset = Species == "setosa") m.vir <- gls(Sepal.Length ~ Petal.Width, data = iris, subset = Species == "virginica") m.ver <- gls(Sepal.Length ~ Petal.Width, data = iris, subset …



6
测试有限方差?
给定样本,是否可以测试随机变量方差的有限性(或存在性)?作为空值,可以接受{方差存在且为有限}或{方差不存在/为无限}。从哲学上(和在计算上),这似乎很奇怪,因为没有有限方差的总体与具有非常大方差(例如>)的总体之间应该没有区别,所以我不希望这个问题能够解决。解决了。104001040010^{400} 向我建议的一种方法是通过中央极限定理:假设样本为iid,并且总体具有有限的均值,则可以通过某种方式检查样本均值是否随着样本量的增加而具有正确的标准误。我不确定我是否相信这种方法会奏效。(特别是,我看不到如何进行适当的测试。)

4
许多p值的均匀分布是否提供H0为真的统计证据?
单个统计检验可以证明无效假设(H0)为假,因此替代假设(H1)为真。但这不能用来表明H0为真,因为未能拒绝H0并不意味着H0为真。 但是,让我们假设您有可能进行多次统计检验,因为您有许多彼此独立的数据集。所有数据集都是同一过程的结果,您想对过程本身做出一些声明(H0 / H1),并且对每个测试的结果都不感兴趣。然后,您收集所有得到的p值,并通过直方图碰巧看到p值明显均匀地分布。 我现在的推理是,只有在H0为true时才会发生这种情况,否则p值的分布将有所不同。因此,这是否足以证明H0为真?还是我在这里缺少一些重要的东西,因为我花了很多心血来写“得出H0为真”的结论,这在我看来真是太过错误了。


4
两个协方差矩阵之间的相似性或距离的度量
两个对称协方差矩阵(都具有相同的维数)之间是否有相似度或距离的度量? 我在这里考虑的是两个概率分布的KL散度的类比或矢量之间的欧几里得距离,除了适用于矩阵。我想会有很多相似性度量。 理想情况下,我还要检验两个协方差矩阵相同的零假设。

1
从lmer模型计算效果的可重复性
我刚刚碰到了这篇论文,该论文描述了如何通过混合效应建模来计算测量的可重复性(又称可靠性,又称类内相关性)。R代码为: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted repeatability R = intercept_var/(intercept_var+residual_var) #compute n0, the repeatability adjustment n = as.data.frame(table(my_data$unit)) k = nrow(n) N = sum(n$Freq) n0 = (N-(sum(n$Freq^2)/N))/(k-1) #compute the adjusted repeatability Rn = …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

3
使用带有R的引导程序计算p值
我使用“ boot”包来计算近似的两面自举p值,但是结果与使用t.test的p值相差太远。我无法弄清楚我在R代码中做错了什么。有人可以给我一个提示吗 time = c(14,18,11,13,18,17,21,9,16,17,14,15, 12,12,14,13,6,18,14,16,10,7,15,10) group=c(rep(1:2, each=12)) sleep = data.frame(time, group) require(boot) diff = function(d1,i){ d = d1[i,] Mean= tapply(X=d$time, INDEX=d$group, mean) Diff = Mean[1]-Mean[2] Diff } set.seed(1234) b3 = boot(data = sleep, statistic = diff, R = 5000, strata=sleep$group) pvalue = mean(abs(b3$t) > abs(b3$t0)) pvalue 两面自举的p值(pvalue)= 0.4804,但t.test的两面p值为0.04342。两个p值的差约为11倍。怎么会这样

8
在没有假设的情况下P值的丰度
我正在流行病学。我不是统计学家,但尽管经常遇到困难,但我还是尝试自己进行分析。大约2年前,我做了第一次分析。从描述表到回归分析,P值被包括在我的分析中的所有地方(我只是做了其他研究人员所做的事情)。渐渐地,在我公寓里工作的统计学家说服我跳过所有(!)p值,除非我真正有一个假设。 问题在于,p值在医学研究出版物中很丰富。通常在太多行上都包含p值;平均值,中位数或其他通常带有p值的描述性数据(学生t检验,卡方等)。 我最近向期刊提交了一篇论文,但我拒绝(礼貌地)在我的“基准”描述性表中添加p值。该文件最终被拒绝。 例如,请参见下图;这是一本受人尊敬的内科杂志上最新发表的文章的描述性表格: 统计人员大部分(如果不是总是)参与这些手稿的审阅。因此,像我这样的外行人希望在没有假设的情况下找不到任何p值。但是它们很丰富,但是对于我来说,其原因仍然难以捉摸。我发现很难相信这是无知。 我意识到这是一个临界的统计问题。但我正在寻找这种现象背后的原因。



1
自由度可以是非整数吗?
当我使用GAM时,它给了我剩余的DF为(代码的最后一行)。这意味着什么?超越GAM示例,通常,自由度可以是非整数吗?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter for gaussian family taken to be 6.6717) Null Deviance: 1126.047 on 31 degrees of freedom Residual Deviance: 177.4662 on 26.6 degrees of …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

2
零假设和替代假设是否必须详尽无遗?
我看到很多时候声称它们必须是详尽无遗的(这类书中的示例总是以这样的方式设置,以致于确实如此),另一方面,我也看到很多次书指出它们应该是排他性的(例如为和为),而没有弄清详尽的问题。只是在输入这个问题之前,我在Wikipedia页面上发现了一些更强的说法-“替代方法不必是原假设的逻辑否定”。H0H0\mathrm{H}_{0}ħ 1 μ 1 > μ 2μ1个= μ2μ1=μ2\mu_1=\mu_2H1个H1\mathrm{H}_{1}μ1个> μ2μ1>μ2\mu_1>\mu_2 有经验的人能解释一下这是真的吗,我感谢能阐明这种差异的(历史性?)原因(毕竟这些书是统计学家写的,即科学家而不是哲学家)。

7
分布假设检验-如果您不能“接受”原假设,那么这样做有什么意义呢?
各种假设检验,例如 GOF检验,Kolmogorov-Smirnov,Anderson-Darling等,都遵循以下基本格式:χ2χ2\chi^{2} H0H0H_0:数据遵循给定的分布。 H1H1H_1:数据不遵循给定的分布。 通常,人们会评估这样的说法,即某些给定数据遵循某种给定分布,并且如果有人拒绝,则该数据在某个级别不适用于该给定分布。 αH0H0H_0αα\alpha 但是,如果我们不拒绝怎么办?我一直被教导不能接受“,因此,基本上,我们没有证据表明拒绝“。也就是说,没有证据表明我们拒绝数据遵循给定的分布。H 0 H 0H0H0H_0H0H0H_0H0H0H_0 因此,我的问题是,如果我们不能断定数据是否遵循给定的分布,那么进行此类测试的意义何在?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.