Questions tagged «p-value»

在常识假设检验中, p-值是在假设无效的假设为真的情况下,结果大于或大于观察结果的概率。

2
帕兰蒂尔(Palantir)的亚洲歧视案:概率是如何计算的?
我读了这篇有关Palantir案的文章,该案涉及劳动部指责他们歧视亚洲人。有谁知道他们从哪里获得这些概率估计值的? 我在项目(a)中得不到1/741。 (a)对于QA工程师职位,Palantir从730多名合格的申请人(其中约77%是亚洲人)中聘用了6名非亚洲人申请者,并且仅雇用了一名亚洲人申请者。OFCCP计算出的不利影响超过了三个标准偏差。根据机会发生此结果的可能性约为741。 (b)在软件工程师职位中,Palantir雇用了1,160多名合格的申请者,其中大约85%是亚洲人,Palantir雇用了14名非亚洲人申请者,仅雇用了11名亚洲人申请者。OFCCP计算出的不利影响超过了五个标准偏差。该结果根据偶然发生的可能性约为340万。 (c)对于QA工程师实习生职位,Palantir雇用了130多名合格的申请人(其中约73%是亚洲人)聘用了17名非亚洲人申请者,仅雇用了4名亚洲人申请者。OFCCP计算出的不利影响超过了六个标准偏差。根据机会发生此结果的可能性约为十亿分之一。

3
p = 5.0%有意义吗?
今天有人问我,是否认为p值为0.05(精确)是有意义的(给定的alpha = 5%)。我不知道答案,而Google给出了两个答案:(a)如果p小于5%,则结果显着;(b)如果p小于5%或等于5%,则结果显着。 当然,这些网站都没有引用任何人。为什么要选一个-这是常识,而5%是任意的。但这无助于我告诉我的学生要记住的事情。 因此,这是我关于检验假设的绝望问题:如果p值恰好是alpha,我认为结果是否重要?在这种情况下,权威引用是什么? 非常感谢你

5
为什么使用AIC应用模型选择会给我变量的不重要的p值
我对AIC有一些疑问,希望您能为我提供帮助。我根据数据对AIC应用了模型选择(向后或向前)。并且某些选定变量的p值> 0.05。我知道有人说我们应该选择基于AIC而不是p值的模型,因此看来AIC和p值是两个不同的概念。有人可以告诉我有什么区别吗?到目前为止,我的理解是: 对于使用AIC的向后选择,假设我们有3个变量(var1,var2,var3),并且此模型的AIC为AIC *。如果排除这三个变量中的任何一个不会导致AIC明显低于AIC *(就df = 1的方差分布而言),那么我们可以说这三个变量是最终结果。 在三变量模型中,变量(例如var1)的有效p值表示该变量的标准化效应量显着不同于0(根据Wald或t检验)。 这两种方法之间的根本区别是什么?如果在我的最佳模型中(通过AIC获得)某些变量的p值不显着,该如何解释?

2
根据任意分布计算p值
我希望这不是一个愚蠢的问题。假设我有一些任意的连续分布。我也有一个统计信息,我想使用此任意分布来获取此统计信息的p值。 我意识到,只要您的发行版适合内置发行版之一,就可以很容易地在R中执行此操作,就像正常情况一样。但是,是否有一种简单的方法可以对任何给定的分布执行此操作,而无需进行这种假设?

2
Benjamini-Hochberg调整后的p值的公式是什么?
我了解该程序及其控制的内容。那么在BH程序中用于多次比较的调整后的p值的公式是什么? 刚才我意识到原始的BH不会产生调整后的p值,只是调整了(非)拒绝条件:https : //www.jstor.org/stable/2346101。无论如何,戈登·史密斯(Gordon Smyth)还是在2002年引入了调整后的BH p值,因此该问题仍然适用。p.adjust与method 一样在R中实现BH。

1
R中的wilcox.test和coin :: wilcox_test有什么区别?
R中存在这两个函数,但我不知道它们之间的区别。似乎当wilcox.test使用时correct=FALSE,和wilcox_test(在硬币包装中)使用时,它们仅返回相同的p值distribution="aymptotic"。对于其他值,它们返回不同的p值。而且wilcox.test始终为我的数据集返回W = 0,而与参数的设置无关: x = c(1, 1, 1, 3, 3, 3, 3) 和 y = c(4, 4, 6, 7, 7, 8, 10) 另外,当我尝试使用除R以外的其他工具(一些可在线使用,其他作为Excel附加组件)时,有时它们报告的p值不同。 那么我怎么知道哪个工具给出了“正确的” p值呢? 是否存在“正确的” p值,或者如果一些工具给出的p值<0.05,我应该感到高兴吗?(有时这些工具没有提供像R这样的众多参数化可能性。) 我在这里想念什么?

3
如何计算与异常大的Z分数相关的概率?
用于网络主题检测的软件包可以返回非常高的Z分数(我见过的最高Z分数是600,000+,但是Z分数超过100的情况非常普遍)。我打算证明这些Z分数是伪造的。 巨大的Z得分对应于极低的关联概率。相关概率的值在正态分布的Wikipedia页面(以及可能的每个统计资料教科书)上给出,Z分数最高为6。所以... 问题:如何计算n到1,000,000之间的误差函数?1−erf(n/2–√)1−erf(n/2)1-\mathrm{erf}(n/\sqrt{2}) 我特别希望已经实施了此软件包(如果可能)。到目前为止,我发现的最好的是WolframAlpha,它设法以n = 150(此处)进行计算。

3
为什么高阳性峰度对于假设检验有问题?
我听说过(抱歉,我无法提供到文本的链接,有人告诉我)对于正确的假设检验和置信区间,残差的高正峰度可能会成问题(因此存在统计推断问题)。这是真的吗?如果是这样,为什么?残差的高正峰度是否不表示大部分残差都接近零均值,因此存在的残差较小?(如果您有答案,请尝试在数学方面不多的情况下给出答案,因为我不太喜欢数学)。

7
将结果称为“接近”或“某种”有意义是错误的吗?
关于类似问题的普遍共识是:将结果称为“高度重要”是错误的吗?“高度显着”是一种有效的(尽管不是特定的)方式,用于描述p值远低于预设的显着性阈值的关联强度。但是,如何描述稍微高于阈值的p 值呢?我已经看到一些论文使用诸如“有些重要”,“几乎重要”,“接近重要性”之类的术语。我发现这些术语有些不切实际,在某些情况下,这是一种界限分明的卑鄙的方式,可以从有意义的结果中排除有意义的结果。这些术语可以用来描述“仅仅错过”您的p值临界值的结果吗?

1
帮助我了解贝叶斯glm中的
我正在尝试对此处的数据运行贝叶斯logit 。我在R bayesglm()中的arm包中使用。编码非常简单: df = read.csv("http://dl.dropbox.com/u/1791181/bayesglm.csv", header=T) library(arm) model = bayesglm(PASS ~ SEX + HIGH, family=binomial(link="logit"), data=df) summary(model) 给出以下输出: Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) 0.10381 0.10240 1.014 0.311 SEXMale 0.02408 0.09363 0.257 0.797 HIGH -0.27503 0.03562 -7.721 1.15e-14 *** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 …
13 r  bayesian  p-value 

1
GBM软件包与使用GBM的插入符
我一直在使用进行模型调整caret,但随后使用该gbm软件包重新运行模型。据我了解,caret程序包使用gbm的输出应相同。然而,data(iris)使用RMSE和R ^ 2作为评估指标,使用进行的快速测试显示模型中的差异约为5%。我想使用来找到最佳模型性能,caret但要重新运行gbm以利用部分依赖图。下面的代码具有可重复性。 我的问题是: 1)为什么即使这两个软件包应该相同,我仍会看到这两个软件包之间的差异(我知道它们是随机的,但5%的差异还是很大的,尤其是当我没有使用iris建模时使用的很好的数据集时) 。 2)同时使用这两个软件包有什么优点或缺点? 3)不相关:使用iris数据集时,最佳interaction.depth值为5,但高于我所阅读的最大值,使用最大值floor(sqrt(ncol(iris)))为2。这是严格的经验法则还是非常灵活? library(caret) library(gbm) library(hydroGOF) library(Metrics) data(iris) # Using caret caretGrid <- expand.grid(interaction.depth=c(1, 3, 5), n.trees = (0:50)*50, shrinkage=c(0.01, 0.001), n.minobsinnode=10) metric <- "RMSE" trainControl <- trainControl(method="cv", number=10) set.seed(99) gbm.caret <- train(Sepal.Length ~ ., data=iris, distribution="gaussian", method="gbm", trControl=trainControl, verbose=FALSE, tuneGrid=caretGrid, metric=metric, bag.fraction=0.75) print(gbm.caret) # …

3
简单线性回归,p值和AIC
我知道这个话题在这里之前已经提出过很多次了,但是我仍然不确定如何最好地解释我的回归输出。 我有一个非常简单的数据集,由一列x值和一列y值组成,并根据位置(位置)分为两组。要点看起来像这样 一位同事假设,我们应该将单独的简单线性回归拟合到每个组,我已经使用进行了拟合y ~ x * C(loc)。输出如下所示。 OLS Regression Results ============================================================================== Dep. Variable: y R-squared: 0.873 Model: OLS Adj. R-squared: 0.866 Method: Least Squares F-statistic: 139.2 Date: Mon, 13 Jun 2016 Prob (F-statistic): 3.05e-27 Time: 14:18:50 Log-Likelihood: -27.981 No. Observations: 65 AIC: 63.96 Df Residuals: 61 BIC: 72.66 Df Model: …

1
解释R中的逻辑回归输出
我正在使用进行R中的多元逻辑回归glm。预测变量是连续的和分类的。该模型摘要的摘录显示以下内容: Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) 2.451e+00 2.439e+00 1.005 0.3150 Age 5.747e-02 3.466e-02 1.658 0.0973 . BMI -7.750e-02 7.090e-02 -1.093 0.2743 ... --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 置信区间: 2.5 % 97.5 % (Intercept) 0.10969506 1.863217e+03 Age 0.99565783 …

3
不同样本大小下p值的相对大小
在不同样本量下ap值的相对大小如何变化?就像如果在得到进行相关,然后在时得到相同的p值0.20,那么与原始p值相比,第二次测试的p值的相对大小是多少当?n = 45 n = 120 n = 45p=0.20p=0.20p=0.20n=45n=45n=45n=120n=120n=120n=45n=45n=45

8
如果p值正好为1(1.0000000),那么置信区间限制应为多少才能支持原假设为真?[关闭]
已关闭。这个问题需要细节或说明。它当前不接受答案。 想改善这个问题吗?添加细节并通过编辑此帖子来澄清问题。 7个月前关闭。 这纯粹是一个假设的问题。一个非常普遍的说法是永远都不是真的,这只是样本量的问题。H0H0H_0 让我们假设,对于实数,从正态分布的总体中得出的两个均值()绝对没有可测量的差异(对于和估计为)。我们假设每组,我们使用检验。这意味着值为表明与绝对没有差异。这将表明测试统计量为。组之间的平均差为。在这种情况下,均值差的置信区间的极限是多少?他们会吗μ1=μ2μ1=μ2\mu_1=\mu_2μ=0μ=0\mu=0σσ\sigma=1=1=1N=16N=16N=16tttppp1.000001.000001.00000H0H0H_000000095%95%95\%[0.0,0.0][0.0,0.0][0.0, 0.0]? 我的问题的重点是,我们什么时候可以真正说出是真实的,即在这种情况下?还是在常客制框架中比较两种方法时可以真正说“没有区别”?H0H0H_0μ1=μ2μ1=μ2\mu_1=\mu_2

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.