我指的是仍能保留其存在的做法,即使它们旨在解决的问题(通常是计算性问题)已基本解决。
例如,发明了Yates的连续性校正可以近似于测试的Fisher精确测试,但是由于软件现在甚至可以处理大量样本,也可以处理Fisher的测试,因此不再实用(我知道这可能不是“保持其存在”,因为像Agresti的“ 分类数据分析 ”这样的教科书经常承认“不再需要Yates的修正”)。
这种做法还有哪些其他示例?
我指的是仍能保留其存在的做法,即使它们旨在解决的问题(通常是计算性问题)已基本解决。
例如,发明了Yates的连续性校正可以近似于测试的Fisher精确测试,但是由于软件现在甚至可以处理大量样本,也可以处理Fisher的测试,因此不再实用(我知道这可能不是“保持其存在”,因为像Agresti的“ 分类数据分析 ”这样的教科书经常承认“不再需要Yates的修正”)。
这种做法还有哪些其他示例?
Answers:
强烈争论的是,阈值显着性水平(例如或是自大多数研究人员依赖于先前计算的临界值表以来的历史遗留物。现在好的软件将直接给出。确实,好的软件可以让您自定义分析,而不必依赖教科书测试。P = 0.01 P
如果仅因为某些重要的测试问题确实需要决策,就存在争议,例如在质量控制中,需要接受或拒绝一批是决定,然后采取任何一种行动。但是,即使是在这里,使用的阈值也应该脱离风险分析而发展,而不取决于传统。而且在科学中,定量指示的分析通常比决策更合适:定量思考意味着关注大小,而不仅仅是关注粗略的二分法,重要与不重要。
我将在此标记我涉及一个复杂而有争议的问题,这是整本书和可能数千篇论文的重点,但这似乎是该主题的一个很好的例子。
我认为该站点的许多访问者会同意我的一种方法是逐步回归。它仍然一直都在进行,但是您不必在此站点上搜索很多专家就说它的用法令人遗憾。像LASSO这样的方法是更可取的。
我的观点是,至少在(应用的)计量经济学中,使用稳健的或经验的协方差矩阵而不是(渐近地)依赖(渐近地)依赖于协方差矩阵的正确规范的“不合时宜的做法”已成为越来越多的规范。当然,这并非没有争议:请参阅我在CrossValidated上在此处链接的一些答案,但这当然是一个明显的趋势。
示例包括异方差稳健的标准误差(Eicker-Huber-White标准误差)。诸如Angrist和Pischke之类的一些研究人员显然建议始终使用异方差稳健的标准误差,而不是使用“过时的”程序将正常标准误差作为默认值,并检查是否有必要保证假设。
其他示例包括面板数据,例如Imbens和Wooldridge在他们的演讲幻灯片中写道,他们反对使用随机效应方差协方差矩阵(这是默认情况下假定方差成分中存在一些误导性)。
完全鲁棒的推断是可用的,通常应使用。(注意:仅依赖于和的常规RE方差矩阵无需正确指定!在估计中使用它仍然有意义,但可以使推理更可靠。) σ 2 ù
使用广义线性模型(对于属于指数族的分布),通常建议始终使用所谓的三明治估计器,而不是依靠正确的分布假设(此处不合时宜的做法):例如,参见此答案或Cameron所指因为伪最大似然估计在错误指定的情况下非常灵活(例如,如果负二项式正确,则使用Poisson),因此可以对数据进行计数。
对于Poisson回归,必须进行此类[White]标准误差校正,因为它们比OLS的类似异方差校正具有更大的差异。
格林在其第十四章的教科书中(例如,在他的网站上提供)写了一个批注,并详细介绍了这种做法的优缺点:
不论似然函数如何,当前文献中都有一种常规计算此[三明治]估计量的趋势。* [*] *我们再次强调,三明治估计量本身并不一定是任何如果似然函数指定不正确,并且M估计量的其他条件不满足,则为。
一直不必要使用的一种方法是对p值进行Bonferroni校正。尽管多重比较一直是一个大问题,但Bonferroni校正对于p值实际上已过时:对于Bonferroni校正有效的任何情况,Holm-Bonferroni也是有效的,因为在这种情况下,Bomferroni校正将具有更高的功效如果,则为备选,其中是检验的假设的数量(等式)。m m = 1
我认为Bonferroni矫正持续存在的原因是易于使用心理(即p = 0.004,很容易调整为0.12,而Holm-Bonferroni需要对p值进行排序)。
大多数不合时宜的做法可能是由于统计学的教学方式以及分析是由仅参加了几门基础课的大量人进行的事实所致。我们通常会教一组标准的统计思想和程序,因为它们形成了不断增加的概念复杂性的逻辑序列,这种逻辑序列在教学上是有意义的(参见,我们怎么能知道总体方差?)。我本人对此感到内::我偶尔会教统计101和102,而且我经常说:“有更好的方法可以做到这一点,但这超出了本课程的范围”。对于那些没有按入门顺序进行学习的学生(几乎全部),他们将获得基本但被取代的策略。
对于统计101的示例,可能最常见的不合时宜的做法是测试某些假设,然后运行传统的统计分析,因为该测试并不重要。从一开始,一种更现代/更高级/更可辩护的方法是使用一种对该假设具有鲁棒性的方法。有关更多信息的一些参考:
对于统计数据102的示例,已经过时了许多建模实践:
在所有这些情况下,问题的关键是人们正在做入门课中首先教过的事情,因为他们根本不知道更高级,更合适的方法。
一个非常有趣的示例是计量经济学中的单位根检验。尽管有很多选择可以针对时间序列的滞后多项式进行检验或针对单位根进行选择(例如,(增强的)迪基·富勒检验或KPSS检验),但是当人们使用贝叶斯分析时,可以完全规避该问题。 。Sims在题为《理解单位根源: 1991年的直升机之旅》的挑衅性论文中指出了这一点。
单位根检验仍然有效,并已在计量经济学中使用。尽管我个人将其归因于人们不愿适应贝叶斯实践,但许多保守的计量经济学家通过说贝叶斯的世界观与计量经济学研究的前提相抵触来捍卫单位根检验的实践。(也就是说,经济学家将世界视为具有固定参数的地方,而不是由某些超参数控制的随机参数。)
在假设检验的常识性领域中教导/进行差异的两尾检验而没有同时进行对等检验,这是对确认偏差的坚定承诺。
有一些细微差别,因为适当的功效分析具有对效应大小的周到定义,可以防止这种情况,并提供或多或少的相同类型的推论,但是(a)功效分析经常在提出发现时被忽略,并且(b)已经从未见过的功率分析,例如,估计用于在多回归每个变量的每一系数,但它是简单的用于差分组合试验和等价检验这样做的(即,相关性测试)。
使用负二项式模型而不是(鲁棒的)泊松模型来识别计数变量中的关注参数,仅仅是因为存在过度分散?
请参阅作为参考:https : //blog.stata.com/2011/08/22/use-poisson-rather-than-regress-tell-a-friend/
泊松在固定效应情况下更强大的证据是最近才提出的,因为它被引用为:Wooldridge,JM,“某些非线性面板数据模型的无分布估计”,《计量经济学杂志》 90(1999), 77–97。
以下是一些过时的情况:
新柏拉图式的假设是,理论上的醚中存在一个单一的“真实”种群,该种群是永恒的,固定的和不动的,可以据此评估我们不完善的样本,这对增进学习和知识几乎没有帮助。
Occam的Razor等任务中固有的还原论与时代不一致。或可以概括为:“在相互竞争的假设中,应选择假设最少的假设。” 备选方案包括Epicurus的“多重解释原理”,该原理粗略地指出:“如果一个以上的理论与数据一致,则将其全部保留。”
整个同行评审系统迫切需要大修。
*编辑*
有了包含数千万个特征的海量数据,就不再需要变量选择阶段。
另外,推论统计是没有意义的。