您对频率偏高和MLE的定义相对狭窄-如果我们比较慷慨一些,并进行定义
那么显然MLE满足了所有常客的理想。尤其是,MLE中的CI作为p值,控制重复采样下的错误率,并且不像许多人认为的那样给出真实参数值的95%概率区域 -因此,它们是经过频繁访问的。
并非所有这些想法都已经出现在Fisher的1922年基础论文“关于理论统计的数学基础”中,但是存在最优性和无偏见的思想,而Neyman后来加入了构造具有固定错误率的CI的思想。埃夫隆(Efron),2013年,“一个250年的论点:信念,行为和引导”,在他对贝叶斯/频率论辩论的可读性很强的历史中进行了总结:
1900年代初期,常客的潮流确实滚滚而来。罗纳德·费舍尔(Ronald Fisher)开发了最佳估计的最大似然理论,显示了估计的最佳可能行为,而杰西·内曼(Jerzy Neyman)在置信区间和检验中也是如此。Fisher和Neyman的过程几乎完全符合科学需求和20世纪科学的计算极限,从而使贝叶斯主义陷入阴影。
关于您更狭义的定义-我稍微不同意您的前提,即将频繁发生风险(FR)降至最低是决定一种方法是否遵循频繁发生哲学的主要标准。我想说一个事实,即最大限度地减少FR是一种可取的属性如下从频率论的哲学,而不是在它之前。因此,决策规则/估计器不必将FR最小化为频繁出现的人,并且将FR最小化也不一定表示方法是频繁出现的,但是一个频繁出现的人无疑会偏爱最小化FR。
如果我们具体看一下MLE:Fisher证明了MLE渐近最优(大致等效于最小化FR),这当然是推广MLE的原因之一。但是,他知道最优性并不适用于有限的样本量。不过,由于其他理想属性,例如一致性,渐近正态性,参数转换下的不变性,他对这个估计量感到满意,并且别忘了:易于计算。在1922年的论文中特别强调了不变性-从我的阅读中,我想说在参数转换下保持不变性以及摆脱先验条件的能力是他选择MLE的主要动机之一。如果您想更好地理解他的推理,我真的推荐1922年的论文,