Questions tagged «hypothesis-testing»

假设检验评估数据是否与给定假设不一致,而不是随机波动的影响。

3
使用计算机模拟以更好地理解研究生级别的统计概念
您好,我正在修读统计学的研究生课程,并且我们涵盖了测试统计和其他概念。 但是,我通常能够运用公式并就事物的工作原理形成某种直觉,但我常常感到,如果我通过模拟实验来支持研究,那么我将对眼前的问题有更好的直觉。 因此,我一直在考虑编写简单的模拟,以更好地理解我们在课堂上讨论的一些概念。现在我可以用说Java来: 产生具有正常均值和标准差的随机总体。 然后取一个小样本,尝试尝试凭经验计算Type-I和Type-II错误。 现在我的问题是: 这是发展直觉的合法方法吗? 是否有执行此操作的软件(SAS?,R?) 统计学是一门处理此类编程的学科吗:实验统计?,计算统计?模拟?

5
我可以对偏态正常数据进行假设检验吗?
我有一个数据收集,本来以为是正态分布的。然后我实际上查看了一下,意识到不是,主要是因为数据是歪斜的,并且我还进行了shapiro-wilks测试。 我仍然想使用统计方法对其进行分析,因此我想对偏态正态性进行假设检验。 所以我想知道是否有一种方法可以测试偏斜正态性,如果可能的话,还有一个库可以为我做测试。

2
在与威尔克斯定理的有限混合中找到高斯数?
假设我有一组独立的,均匀分布的单变量观测值以及关于x是如何产生的两个假设:xxxxxx : x是从均值和方差未知的单个高斯分布中得出的。H0H0H_0xxx : x是由两个均值,方差和混合系数未知的高斯混合而成的。HAHAH_Axxx 如果我理解正确,则这些是嵌套模型,因为如果将两个高斯的参数约束为相同或将两个高斯之一的混合系数约束为零,则可以用H A来描述表示的模型。。 H0H0H_0HAHAH_A 因此,看来您应该能够使用EM算法来估计的参数,然后使用Wilks定理来确定H A下数据的可能性是否明显大于H 0下。假设EM算法将在此处收敛到最大可能性,这是一个小小的信念飞跃,但这是我愿意做的。HAHAH_AHAHAH_AH0H0H_0 我在蒙特卡洛模拟中对此进行了尝试,假设比H 0(第二个高斯和混合参数的均值和方差)多3个自由度。当我从H 0模拟数据时,我得到的P值分布基本上是不均匀的,并且丰富了较小的P值。(如果EM不能收敛到真正的最大似然,则可以预期正好相反。)我对产生这种偏差的Wilks定理的应用有什么问题?HAHAH_AH0H0H_0H0H0H_0

2
威尔科克森签名秩检验的适当性
我在“交叉验证”档案中打了一下,似乎找不到我的问题的答案。我的问题如下:Wikipedia给出了Wilcoxon签名等级测试需要保留的三个假设(针对我的问题稍作修改): 令Zi = Xi-Yi,i = 1,...,n。 假设差异Zi是独立的。 (a。)每个Zi都来自相同的连续种群,并且(b。)每个Zi都是关于一个共同的中位数对称的; Xi和Yi表示的值是有序的...因此比较“大于”,“小于”和“等于”是有用的。 但是,R中的?wilcox.test文档似乎表明(2.b)实际上是由该过程测试的: “ ...如果x和y都给出且配对为TRUE,则执行x y的分布(在成对的两个样本的情况下)关于mu对称的null的Wilcoxon有符号秩检验。” 这个声音以我,好像该测试为零假设,即“Z是symetrically周围分布中值亩= SomeMu”执行-使得拒绝FO空可能是要么拒绝的对称性或拒绝其围绕该亩Z是对称的SomeMu。 这是对wilcox.test R文档的正确理解吗?当然,这很重要的原因是,我正在对一些前后数据(上面的“ X”和“ Y”)进行许多成对差异测试。“之前”和“之后”数据分别高度偏斜,但差异几乎没有偏斜(尽管仍然有些偏斜)。我的意思是,单独考虑的“之前”或“之后”数据的偏斜度约为7到21(取决于我正在查看的样本),而“差异”数据的偏斜度约为0.5到5。但没有那么多。 如果我的“差异”数据中存在偏斜会导致Wilcoxon检验给我错误/偏见的结果(如Wikipedia文章所表明的那样),那么偏斜可能是一个大问题。但是,如果Wilcoxon检验实际上是在检验差异分布是否“关于mu = SomeMu对称”(正如?wilcox.test似乎表明的那样),那么就不必担心了。 因此,我的问题是: 上面哪种解释是正确的?我的“差异”分布中的偏斜度会偏向我的Wilcoxon检验吗? 如果偏斜是一个问题,那就:“偏斜多少?” 如果在这里Wilcoxon签署的等级测试似乎非常不合适,那么我应该使用什么建议? 非常感谢。如果您对如何进行此分析有任何进一步的建议,我很高兴听到他们的声音(尽管我也可以为此目的打开另一个线程)。另外,这是我关于交叉验证的第一个问题;如果您对我的提问方式有任何建议/评论,我也欢迎您! 一些背景知识:我正在分析一个数据集,其中包含对我称之为“公司生产中的错误”的观察。我对意外检查前后在生产过程中发生的错误进行了观察,分析的目的之一是回答以下问题:“检查是否会显着减少错误的发生?” 数据集如下所示: ID, errorsBefore, errorsAfter, size_large, size_medium, typeA, typeB, typeC, typeD 0123,1,1,1,0,1,1,1,0 2345,1,0,0,0,0,1,1,0 6789,2,1,0,1,0,1,0,0 1234,8,8,0,0,1,0,0,0 大约有4000个观测值。其他变量是描述公司特征的分类观察。规模可以小,中或大,每个公司都是其中之一,并且只有其中之一。企业可以是任何一种或所有“类型”。 我被要求进行一些简单的测试,以查看在检查所有公司和各个子组(基于大小和类型)之前和之后观察到的错误率是否存在统计学上的显着差异。之所以进行T检验,是因为数据在R之前和之后都严重偏斜,例如,在R中,之前的数据看起来像这样: summary(errorsBefore) # Min. 1st Qu. Median …

2
回归F检验的功效是什么?
多线性回归中变量子集的经典F检验的形式为 其中是“减少”模型下的平方误差总和,嵌套在“大”模型,而是模型的自由度。两种模式。在“大”模型中的额外变量没有线性解释能力的零假设下,统计量以为和的F分布。SSE(R)BdfdfR-dfBdfBF= (SSE(R )− SSE(B ))/(dF[R- dF乙)上证所(B) / dF乙,F=(SSE(R)−SSE(B))/(dfR−dfB)SSE(B)/dfB, F = \frac{(\mbox{SSE}(R) - \mbox{SSE}(B))/(df_R - df_B)}{\mbox{SSE}(B)/df_B}, 上证所(R)SSE(R)\mbox{SSE}(R)乙BBdFdfdfdF[R- dF乙dfR−dfBdf_R - df_BdF乙dfBdf_B 但是,替代方案下的分布是什么?我假设它是一个非中心F(我希望不是双重非中心),但是我找不到关于非中心性参数确切含义的任何参考。我想这取决于真实的回归系数,并且可能取决于设计矩阵,但是除此之外,我不确定。Xββ\betaXXX

3
Z得分和p值有什么区别?
在网络主题算法中,返回统计信息的p值和Z分数似乎很常见:“输入网络包含子图G的X个副本”。满足要求的子图被视为主题 p值<A, Z得分> B和 X> C,对于某些用户定义(或社区定义)的A,B和C。 这激发了一个问题: 问题:p值和Z得分有什么区别? 和子问题: 问题:是否存在相同统计的p值和Z分数可能提出相反假设的情况?上面列出的第一条件和第二条件是否基本相同?



1
R / mgcv:为什么te()和ti()张量积产生不同的曲面?
的mgcv软件包R具有两个功能,用于拟合张量积相互作用:te()和ti()。我了解两者之间的基本分工(拟合非线性交互与将这种交互分解为主要效果和交互)。我不明白的是为什么te(x1, x2)而ti(x1) + ti(x2) + ti(x1, x2)可能产生(略)不同的结果。 MWE(改编自?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f + rnorm(n)*0.2 par(mfrow = c(2,2)) # …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 



2
是否可以接受替代假设?
我在这里知道几个相关的问题(例如,关于null的假设测试术语,是否可以证明一个null假设?),但是我不知道下面我的问题的确切答案。 假设我们要检验一个硬币是否公平的假设检验。我们有两个假设: H0:p(head)=0.5H0:p(head)=0.5H_0: p(head)=0.5 H1:p(head)≠0.5H1:p(head)≠0.5H_1: p(head)\neq0.5 假设我们使用5%的显着性水平,有两种可能的情况: 当我们获得数据并发现p值小于0.05时,我们说“显着性水平为5%,我们拒绝。H0H0H_0 p值大于0.05,那么我们说“显着性水平为5%,我们不能拒绝。H0H0H_0 我的问题是: 在情况1中,说“我们接受 ”是否正确?H1H1H_1 凭直觉,并且根据我过去的经验,我认为假设检验的结果“接受”总是错误的。在另一方面,在这种情况下,由于对工会的覆盖整个“空间”,“拒绝 ”和“接受 ”外观一模一样的给我。另一方面,我还可以想到以下想法,即说“我们接受 ” 是不正确的:H 1 H 0 H 1 H 1H0H0H_0H1H1H_1H0H0H_0H1H1H_1H1H1H_1 我们有足够的证据证明不正确,但我们可能没有足够的证据证明是正确的。因此,“拒绝 ”并不自动表示“接受 ”H 1 H 0 H 1H0H0H_0H1H1H_1H0H0H_0H1H1H_1 那么,正确的答案是什么?

4
包含测量不确定度的统计测试
假设我得到了两组质量测量值(以mg为单位),分别称为y1和y2。我想做一个测试,以确定两个样本是否均来自具有不同均值的总体。例如(在R中): y1 <- c(10.5,2.9,2.0,4.4,2.8,5.9,4.2,2.7,4.7,6.6) y2 <- c(3.8,4.3,2.8,5.0,9.3,6.0,7.6,3.8,6.8,7.9) t.test(y1,y2) 我得到的p值为0.3234,在显着性水平为0.05的情况下,不要拒绝零假设,即两组均来自具有相同均值的总体。现在,我得到了每次测量的不确定性: u1 <- c(2.3,1.7,1.7,1.7,2.0,2.2,2.1,1.7,2.3,2.2) u2 <- c(2.4,1.8,1.6,2.3,2.5,1.8,1.9,1.5,2.3,2.3) 其中u1 [1]是测量值y1 [1]的组合标准不确定度(以此类推)。如何将这些不确定性纳入统计检验?


5
有什么方法可以证明两种分析方法是等效的?
我有两种不同的分析方法,可以测量基质中特定分子的浓度(例如测量水中的盐含量) 两种方法不同,每种方法都有自己的错误。有什么方法可以证明这两种方法是等效的(或不等效)。 我认为在散点图上绘制通过两种方法测量的多个样本的结果是一个不错的第一步,但是有没有好的统计方法?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.