2 “假设检验”和“重要性检验”有什么区别? “假设检验”和“重要性检验”这两个短语之间是否存在差异? 在@Micheal Lew的详细回答之后,我有一个困惑,即当今的假设(例如,t检验到检验均值)是“显着性检验”还是“假设检验”的例子?还是两者的结合?您如何通过简单的示例来区分它们? 17 hypothesis-testing statistical-significance
4 可靠的均值t检验 我正在尝试针对随机变量(针对该变量的轻度到中度偏斜和峰度),针对局部替代测试零。遵循Wilcox在“稳健估计和假设检验简介”中的建议之后,我基于修整后的均值,中位数以及位置的M估计值(Wilcox的“一步”过程)对测试进行了研究。在使用非偏斜但具有正态分布的分布进行测试时,就功率而言,这些强大的测试确实优于标准t检验。E[X]=0E[X]=0E[X] = 0E[X]>0E[X]>0E[X] > 0XXX 但是,当使用偏斜的分布进行检验时,根据原假设,这些单面检验要么过于宽松,要么过于保守,这分别取决于该分布是左偏斜还是右偏斜。例如,对于1000个观察值,基于中位数的测试实际上将拒绝〜40%的时间,即名义5%的水平。原因很明显:对于偏斜的分布,中位数和均值是完全不同的。但是,在我的应用程序中,我确实需要测试均值,而不是中位数,而不是修整后的均值。 是否有t检验的更强大版本可以实际测试均值,但不能偏斜和峰度? 理想情况下,该程序在无偏斜,高峰度的情况下也能很好地工作。“单步”测试几乎足够好,“弯曲”参数设置得较高,但是在没有偏斜的情况下,它不如经过修剪的均值测试强大,并且在保持偏斜下的废品标称水平方面有些麻烦。 背景:我真正关心平均值而不是平均值的原因是,该测试将用于金融应用程序。例如,如果您想测试某个投资组合是否具有正的预期对数回报,则该平均值实际上是适当的,因为如果您投资该投资组合,您将体验到所有的回报(这是平均值乘以样本数),而不是中位数的重复项。也就是说,我真的很在乎RV的和。nnnnnnXXX 17 hypothesis-testing t-test finance robust
4 和F检验之间有什么关系? 我想知道R2R2R^2和F检验之间是否存在关系。 一般R2=∑(Y^t−Y¯)2/T−1∑(Yt−Y¯)2/T−1R2=∑(Y^t−Y¯)2/T−1∑(Yt−Y¯)2/T−1R^2=\frac {\sum (\hat Y_t - \bar Y)^2 / T-1} {\sum( Y_t - \bar Y)^2 / T-1}和它测量在回归的线性关系的强度。 F检验只是证明了一个假设。 R2R2R^2和F检验之间有关系吗? 17 regression hypothesis-testing least-squares goodness-of-fit
5 当我的t统计量如此之大时,为什么我的R平方这么低? 我跑了回归有4个变量,都非常统计学显著,带T值≈7,9,26≈7,9,26\approx 7,9,26和313131(我说≈≈\approx因为它似乎无关包括小数),这是非常高的,清晰显著。但是R2R2R^2只有0.2284。我在误解此处的t值意味着它们不是吗?我在看到的T值的第一反应是,R2R2R^2将是相当高的,但也许这是一个高R2R2R^2? 17 regression hypothesis-testing econometrics
2 为什么将T分布用于假设检验线性回归系数? 在实践中,通常使用标准的T检验来检验线性回归系数的显着性。计算的机制对我来说很有意义。 为什么可以使用T分布来建模线性回归假设检验中使用的标准检验统计量?我在这里指的是标准测试统计信息: T0=βˆ−β0SE(βˆ)T0=β^−β0SE(β^) T_{0} = \frac{\widehat{\beta} - \beta_{0}}{SE(\widehat{\beta})} 17 regression hypothesis-testing linear-model t-distribution
3 回归中的零模型是什么?它与零假设有何关系? 回归中的零模型是什么,零模型与零假设之间的关系是什么? 以我的理解,这是否意味着 使用“响应变量的平均值”来预测连续响应变量? 使用“标签分布”来预测离散响应变量? 如果真是这样,那么零假设之间的联系似乎缺失了。 16 regression hypothesis-testing classification terminology model
2 p值分布的高方差(Taleb 2016中的一个论点) 我正在尝试了解Taleb在2016年提出的总体观点,即标准P值的元分布。 在其中,Taleb针对p值的不可靠性提出了以下论点(据我所知): 对来自某个分布X的nnn数据点进行操作的估计过程将输出ap值。如果我们从该分布中获得n个点并输出另一个p值,则可以对这些p值求平均值,以在极限范围内获得所谓的“真实p值”。XXX 该“真实p值”显示出令人不安的高方差,因此具有“真实p值” 的分布+程序.12.12.12将有60%的时间报告p值<.05。 问题:这如何与赞成值的传统论点相吻合。据我了解,p值应该告诉您过程将为您提供正确间隔(或其他时间)的时间百分比。但是,本文似乎认为这种解释具有误导性,因为如果再次运行该过程,p值将不会相同。ppp 我错过了重点吗? 16 hypothesis-testing statistical-significance p-value
2 “所有这些数据点都来自同一分布。”如何进行测试? 我觉得以前已经在这里讨论过这个主题,但是我找不到任何具体的东西。再说一次,我也不确定要搜索什么。 我有一维数据集。我假设集合中的所有点均来自同一分布。 我如何检验这个假设?对“该数据集中的观测值来自两个不同的分布”的一般选择进行检验是否合理? 理想情况下,我想确定哪些点来自“其他”分布。由于我的数据是有序的,因此在以某种方式测试切割数据是否“有效”之后,我是否可以确定切割点? 编辑:根据Glen_b的回答,我会对严格正,单峰分布感兴趣。我也对假设分布然后测试不同参数的特殊情况感兴趣。 16 hypothesis-testing distributions mixture
4 误解了P值? 因此,我已经阅读了很多有关如何正确解释P值的知识,从我读到的内容来看,P值对空假设为真还是假的可能性一无所知。但是,在阅读以下语句时: p –值表示发生I型错误或在原假设为真时拒绝原假设的概率。p值越小,您错误地拒绝原假设的可能性就越小。 编辑:然后5分钟后,我读到: 对P值的错误解释非常普遍。最常见的错误是将P值解释为通过拒绝真实的零假设(I类错误)而犯错的可能性。 这让我感到困惑。哪一个是正确的?谁能解释如何正确解释p值,以及它如何正确地与产生I型错误的可能性相关联? 16 hypothesis-testing p-value
1 为什么控制FDR不如控制FWER严格? 我已经读到,控制FDR比控制FWER宽松,例如在Wikipedia中: 与家庭错误率(FWER)过程(例如Bonferroni校正)相比,FDR控制过程对错误发现的控制不太严格。这以增加I型错误率的代价为代价来增加功率,即拒绝应该接受的无效无效假设。 但是我想知道它在数学上如何被证明是正确的? FDR和FWER之间是否存在某些关系? 16 hypothesis-testing multiple-comparisons false-discovery-rate
3 测试变量是否遵循相同的分布 如果要测试两个变量是否遵循相同的分布,将两个变量简单排序然后检查它们的相关性是否是一个很好的测试?如果它很高(至少为0.9?),则变量很可能来自相同的分布。 这里的分布是指“正态”,“卡方”,“伽玛”等。 16 hypothesis-testing distributions
2 解释两尾测试 我正在寻找各种方式(在基础统计学课程中)向学生解释什么是双尾检验,以及如何计算其P值。 您如何向学生解释两尾测试与单尾测试? 16 hypothesis-testing p-value teaching
1 我可以使用Kolmogorov-Smirnov来比较两个经验分布吗? 是否可以使用Kolmogorov-Smirnov拟合优度检验来比较两个经验分布以确定它们是否似乎来自相同的基础分布,而不是将一个经验分布与预先指定的参考分布进行比较? 让我尝试以另一种方式询问。我从一个位置的某个分布收集了N个样本。我在另一个位置收集了M个样本。数据是连续的(例如,每个样本都是0到10之间的实数),但不是正态分布的。我想测试这些N + M样本是否全部来自相同的基础分布。为此目的使用Kolmogorov-Smirnov检验是否合理? 特别是,我可以从N个样本中计算出经验分布F0F0F_0,从M个样本中计算出经验分布F 1。然后,我可以计算Kolmogorov-Smirnov检验统计量以测量F 0和F 1之间的距离:即,计算D = sup x | F 0(x )− F 1(x )| ,并使用DNNNF1F1F_1MMMF0F0F_0F1F1F_1D=supx|F0(x)−F1(x)|D=supx|F0(x)−F1(x)|D = \sup_x |F_0(x) - F_1(x)|DDD作为我在Kolmogorov-Smirnov检验中拟合优度的检验统计量。这是合理的方法吗? (我在其他地方读到,关于拟合优度的Kolmogorov-Smirnov检验不适用于离散分布,但我承认我不明白这是什么意思,或者为什么它是正确的。这是否意味着我提出的方法是一种不好的方法? ) 或者,您是否推荐其他东西呢? 16 hypothesis-testing distributions kolmogorov-smirnov
5 检查方差分析假设 几个月前,我在SO上的R中发布了一个有关均方差测试的问题,Ian Fellows回答说(我将他的回答解释得很宽松): 在测试模型拟合优度时,同方差测试不是一个好的工具。对于小样本,您没有足够的能力来检测偏离同方差,而对于大样本,您具有“足够的权力”,因此,您更有可能筛选甚至是琐碎的均等偏离。 他的好回答是我的耳光。每次运行ANOVA时,我都会检查正态性和均方差性假设。 您认为检查ANOVA假设时的最佳做法是什么? 16 hypothesis-testing anova nonparametric goodness-of-fit heteroscedasticity
5 比较配对观测值的方差 我有成对的观测值(,),它们来自一个共同的未知分布,该分布具有有限的第一和第二矩,并且围绕均值对称。X i Y iNNNXiXiX_iYiYiY_i 令为的标准偏差(对无条件),对于为。我想检验一下假设 X ÿ σ ÿσXσX\sigma_XXXXYYYσYσY\sigma_Y H0H0H_0:σX=σYσX=σY\sigma_X = \sigma_Y H1H1H_1:σX≠σYσX≠σY\sigma_X \neq \sigma_Y 有人知道这样的测试吗?我可以在第一分析中假定分布是正态的,尽管一般情况更有趣。我正在寻找一种封闭形式的解决方案。Bootstrap永远是不得已的手段。 16 distributions hypothesis-testing standard-deviation normal-distribution