Questions tagged «p-value»

在常识假设检验中, p-值是在假设无效的假设为真的情况下,结果大于或大于观察结果的概率。

2
不能改善样本外预测的“显着变量”-如何解释?
我有一个问题,我认为这对很多用户来说都是非常基本的。 我使用线性回归模型来(i)研究几个解释变量与我的反应变量之间的关系,以及(ii)使用解释变量预测我的反应变量。 一个特定的解释变量X似乎对我的响应变量有显着影响。为了测试此解释变量X的增加值,以便对我的响应变量进行样本外预测,我使用了两个模型:模型(a)使用所有解释变量,模型(b)使用所有变量除了变量X。对于这两个模型,我仅报告样本外性能。看起来两个模型的性能几乎一样好。换句话说,添加解释变量X不会改善样本外预测。请注意,我还使用模型(a)(即具有所有解释变量的模型)来发现,解释变量X确实会严重影响我的响应变量。 我现在的问题是:如何解释这一发现?直截了当的结论是,即使变量X似乎使用推论模型显着影响了我的响应变量,但它并不能改善样本外预测。但是,我很难进一步解释这一发现。这怎么可能?对此发现有何解释? 提前致谢! 额外信息:具有“显着影响”是指参数估计的最高95%后验密度间隔中不包含0(即使用贝叶斯方法)。用常客的话来说,这大致对应于p值小于0.05。我仅对所有模型参数使用扩散(无信息)先验。我的数据具有纵向结构,总共包含大约7000个观测值。对于样本外预测,我使用90%的数据来拟合模型,并使用10%的数据使用多次复制来评估模型。也就是说,我多次进行了火车测试拆分,并最终报告了平均性能指标。

1
如何解释GAM P值?
我叫休,我是一名使用广义加性模型进行探索性分析的博士研究生。 我不确定如何解释来自MGCV软件包的p值,并想检查我的理解(我使用的是1.7-29版,并已查阅了Simon Wood的一些文档)。我首先寻找了其他简历问题,但最相关的问题似乎与一般回归有关,尤其不是GAM p值。 我知道GAM有很多不同的参数,而p值仅是近似值。但是,我只是简单地开始看看我的协变量是否存在任何“信号”。例如: Y〜s(a,k = 3)+ s(b,k = 3)+ s(c,k = 3)+ s(d,k = 3)+ s(e,k = 3) 平滑项的近似p值: s(a)= 0.000473 s(b)= 1.13e-05 s(c)= 0.000736 s(d)= 0.887579 s(e)= 0.234017 ř ²(调整)= 0.62\quad 解释的偏差= 63.7% GCV分数= 411.17\quad 规模估算值= 390.1\quad n = 120 由于格式化,我剪切了df列等。我将每个协变量的p值解释为测试相应的平滑函数是否显着降低模型偏差,其中p是获得数据的概率至少与在零模型0下观察到的“相对不可信”。 这将意味着(例如,在alpha = 0.05的情况下)与零模型相比,平滑函数不会减小“ d”和“ e”的偏差,而对于其他项却会减小。因此,(d)和(e)不会在回归中添加重要信息,并且解释的偏差可归结为(a)(b)(c)? 任何建议将不胜感激,并祝您研究顺利。
10 p-value  mgcv 

2
使用lme4的混合效应模型中交互项的P值
我正在使用lme4in来分析一些行为数据R,主要是按照Bodo Winter的出色教程进行的,但是我不理解我是否正确处理了交互。更糟糕的是,没有其他人参与到这项研究中来,因此使用混合模型,因此在确保一切正确的时候我有点不知所措。 我认为我应该尽最大的努力来解释问题,然后请求您的集体更正,而不是仅仅寻求帮助。其他一些方面是: 在写作时,我发现了这个问题,表明nlme更直接地给交互项赋予p值,但是我认为与的关系仍然有效lme4。 Livius'该问题的答案提供了许多其他阅读文章的链接,我将在接下来的几天中尝试阅读这些文章,因此,我将对所带来的任何进步进行评论。 在我的数据中,我有一个因变量dv,一个condition操作(0 =对照,1 =实验条件,应导致更高的值dv),还有一个前提条件,标记为appropriate:1为此进行编码的试验应显示出效果,但编码的试验0可能不会,因为缺少一个关键因素。 我还包括两个随机截距,分别用于subject和,用于target反映dv每个主题内以及所解决的14个问题中的每个问题的相关值(每个参与者都解决了每个问题的对照和实验版本)。 library(lme4) data = read.csv("data.csv") null_model = lmer(dv ~ (1 | subject) + (1 | target), data = data) mainfx_model = lmer(dv ~ condition + appropriate + (1 | subject) + (1 | target), data = data) interaction_model = lmer(dv ~ condition …

3
如何从Bootstrap回归中获得系数的p值?
从罗伯特·卡巴科夫(Robert Kabacoff)的Quick-R中,我有 # Bootstrap 95% CI for regression coefficients library(boot) # function to obtain regression weights bs <- function(formula, data, indices) { d <- data[indices,] # allows boot to select sample fit <- lm(formula, data=d) return(coef(fit)) } # bootstrapping with 1000 replications results <- boot(data=mtcars, statistic=bs, R=1000, formula=mpg~wt+disp) # view …


1
使用置换测试的好处是什么?
当通过检验统计量检验某些零假设与替代假设时,其中,对进行置换,对置换集进行置换检验,我们有了一个新的统计量 ü(X)U(X)U(X)X= {X一世,。。。,Xñ}X={xi,...,xn}X = \{ x_i, ..., x_n\}GGGXXXŤ(X):=#{ π∈ ģ :ù(πX)≥ ü(X)}| G |。T(X):=#{π∈G:U(πX)≥U(X)}|G|. T(X) := \frac{\# \{\pi \in G: U(\pi X) \geq U(X)\}}{|G|}. 与不使用置换测试相比,使用置换测试有什么好处?即,排列测试工作时是什么样的? 什么条件可以实现?例如关于检验统计量和/或原假设的某些条件?üUU 例如, 是否应 是等于基于p值,用于样品?如果是,为什么?(也值得参考)Ť(X)T(X)T(X)ü(X)U(X)U(X)XXX 的p值定义为。如果置换检验是为了估计U(X)的置换分布| X = x,T(X)等于X = x处U(X)的p值吗?特别是,在零H中可能存在多个分布,并且T(X)不会一一考虑零分布,然后取\ sup_ {F \ in H}和\ inf_ {c:U(x) \ geq c}。ü(X)U(X)U(X)信息Ç ∈ [R :ù(X )≥ ÇSUPF∈ …

6
使用p值计算假设为真的可能性;还需要什么?
题: 对p值的一个普遍误解是,它们代表原假设为真的概率。我知道这是不正确的,并且我知道p值仅代表找到样本的可能性,因为原假设是真的。但是,从直觉上讲,一个人应该能够从后者派生第一个。没有人这样做,一定有原因。我们缺少哪些信息,这些信息限制了我们从p值和相关数据得出假设成立的可能性? 例: 我们的假设是“维生素D影响情绪”(无效假设是“无效”)。假设我们对1000人进行了适当的统计研究,发现情绪与维生素水平之间存在相关性。在所有其他条件相同的情况下,p值0.01表示真实假设的可能性比p值0.05更高。假设我们得到的p值为0.05。为什么我们不能计算假设为真的实际概率?我们缺少什么信息? 常客统计学家的备用术语: 如果您接受我的问题的前提,则可以在这里停止阅读。以下内容适用于拒绝接受假设可以进行概率解释的人们。让我们暂时忘记术语。代替... 假设您与朋友下注。您的朋友向您展示了有关无关主题的一千项统计研究。对于每个研究,您只能查看p值,样本大小和样本的标准偏差。对于每项研究,您的朋友都会给您提供一定的机会来打赌研究中提出的假设是正确的。您可以选择下注或不下注。在为所有1000项研究下注后,一个先知会升华,并告诉您哪个假设是正确的。此信息使您可以下注。我的主张是该游戏存在最佳策略。在我的世界观中,这相当于知道假设为真的概率,但是如果我们不同意,那就很好。在那种情况下,我们可以简单地讨论采用p值以最大程度地期望下注的方法。

1
模型选择中AIC和p值的等效性
在对这个问题的答案的评论中,有人指出在模型选择中使用AIC等于使用p值为0.154。 我在R中进行了尝试,在其中我使用了“向后”子集选择算法来排除完整规范中的变量。首先,依次丢弃具有最高p值的变量,并在所有p值均低于0.154时停止,其次,然后删除该变量,删除该变量会导致AIC最低,直到无法进行改进为止。 原来,当我使用0.154的p值作为阈值时,它们给出的结果大致相同。 这是真的吗?如果是这样,是否有人知道原因或可以参考解释它的来源? PS我不能要求对方发表评论或发表评论,因为刚刚注册。我知道这不是最适合模型选择和推断的方法。

2
为什么0.05 <p <0.95的结果称为假阳性?
编辑:我的问题的基础是有缺陷的,我需要花一些时间弄清楚它是否甚至可以说得通。 编辑2:澄清一下,我认识到p值不是零假设的概率的直接量度,但是我假设p值越接近1,则假设就越有可能被选择用于相应零假设为真的实验测试,而p值越接近0,则被选择用于相应零假设为假的实验测试的可能性就越大。除非所有假设(或为实验选择的所有假设)的集合在某种程度上是病理性的,否则我看不到这是错误的。 编辑3:我认为我仍然没有使用明确的术语来问我的问题。当彩票号码被读出并与彩票一一对应时,情况就会发生变化。您赢了的概率不会改变,但是您可以关闭收音机的概率却不会改变。实验完成时也会发生类似的变化,但是我感到我使用的术语-“ p值会更改选择正确假设的可能性”-不是正确的术语。 编辑4:我收到了两个非常详尽而翔实的答案,其中包含大量信息供我参考。我现在将它们都投票给我,然后在我从两个答案中学到足够多的知识后知道他们已经回答了我的问题或使我的问题无效时,再回来接受它们。这个问题打开了比我原本希望吃的蠕虫还要大得多的蠕虫罐。 在我读过的论文中,我看到经过验证的p&gt; 0.05的结果称为“假阳性”。但是,当实验数据的ap &lt;0.50低但大于0.05且不是零假设和p时,我选择一个假设以错误的相应零假设进行检验的可能性是否更大?考虑到@NickStauner 链接中指出的不对称性,研究假设在0.05 &lt;p &lt; 0.95之间的任何地方统计上不确定/无关紧要(鉴于常规的统计显着性临界值)。 让我们将数字称为A,并将其定义为p值,该值表示您为实验/分析选择了真实零假设的可能性相同,p值为0.05表示您的可能性为我们为您的实验/分析选择了一个真实的非零假设。0.05 &lt;p &lt;只是说:“您的样本量不足以回答问题,在您获得更大的样本并获得统计数据之前,您将无法判断应用程序/现实世界的重要性意义整理出来了吗? 换句话说,当且仅当p&gt; A时才将结果绝对确定为假(而不是仅仅不受支持)是否正确? 这对我来说似乎很简单,但是如此广泛的使用告诉我我可能是错的。我是 a)误解了数学, b)抱怨一种无害(如果不是完全正确)的惯例, c)完全正确,或者 d)其他? 我认识到这听起来像是在征求意见,但这似乎是一个问题,它在数学上有明确的正确答案(一旦设定了有效截断值),那么我或(几乎)其他所有人都会出错。

1
Logistic回归模型变量的p值的含义
因此,我正在R中使用逻辑回归模型。尽管我还不熟悉统计学,但我现在似乎对回归模型有了一些了解,但仍然有些困扰我: 查看链接的图片,您会看到我创建的示例模型的摘要R打印。该模型正在尝试预测是否将重新找到数据集中的电子邮件(二进制变量isRefound),并且数据集中包含与密切相关的两个变量isRefound,即- next24和next7days-均为二进制,并告知是否将在下一个单击邮件。从日志中的当前点开始的24小时/接下来的7天。 高p值应表明,此变量对模型预测的影响是相当随机的,不是吗?基于这一点,我不明白为什么当这两个变量被排除在计算公式之外时,模型预测的精度为什么会下降到10%以下。如果这些变量的重要性不高,为什么将它们从模型中删除会产生如此大的影响? 最好的问候和预先的感谢,Rickyfox 编辑: 首先,我仅删除了next24,这会产生很小的影响,因为它的系数很小。正如预期的那样,变化不大-不会为此上传图片。 移除next7day会对模型产生重大影响:AIC提升200k,精度降低至16%,召回率降低至73%

1
未知的p值计算
我最近在调试R脚本时发现很奇怪,作者定义了自己的p值函数 pval &lt;- function(x, y){ if (x+y&lt;20) { # x + y is small, requires R.basic p1&lt;- nChooseK(x+y,x) * 2^-(x+y+1); p2&lt;- nChooseK(x+y,y) * 2^-(x+y+1); pvalue = max(p1, p2) } else { # if x+y is large, use approximation log_p1 &lt;- (x+y)*log(x+y) - x*log(x) - y*log(y) - (x+y+1)*log(2); pvalue&lt;-exp(log_p1); } return(pvalue) …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.