谁能用简单的英语解释带宽选择的斯科特和西尔弗曼经验法则之间的区别是什么?具体来说,什么时候比另一种更好?它与基础分布有关吗?样品数量?
PS:我指的是SciPy中的代码。
谁能用简单的英语解释带宽选择的斯科特和西尔弗曼经验法则之间的区别是什么?具体来说,什么时候比另一种更好?它与基础分布有关吗?样品数量?
PS:我指的是SciPy中的代码。
Answers:
代码中的注释似乎最终定义了两个基本相同的变量(常量的相对较小差异)。
代码称为“斯科特估算”的1.059在Silverman的(先前的)书中(请参阅链接中的Silverman参考文献的第45页-斯科特的推论在他们引用的书的p130-131中)。它来自正常理论的估计。
出于与我之前建议的类似原因,Silverman继续建议减少1.059(实际上,他实际上始终使用1.06,而不是Scott的书中的1.059)。他选择了一个降低的值,该值在正常情况下对IMSE的损失不超过10%,这是0.9的来源。
因此,这两个binwidth均基于正常情况下的IMSE最佳binwidth,其中一个恰好位于最佳位置,另一个恰好(较小约15%,以使其在正常情况下达到最佳效率的90%以内)。[我将它们都称为“ Silverman”估算。我不知道为什么他们为斯科特(Scott)命名1.059。]
我认为两者都太大了。我不使用直方图来获得IMSE最佳密度估计值。如果那是我想要做的(获得IMSE上最佳的密度估计值),则我不想为此使用直方图。
直方图应在嘈杂的一面出现误差(让眼睛进行必要的平滑处理)。我几乎总是将这些规则提供的默认箱数加倍(或更多)。因此,我不会使用1.06或0.9,而倾向于使用大约0.5的值,在大样本量的情况下可能会更少。
实际上,它们之间几乎没有选择,因为它们都提供了太少的bin,因此不足以用于查找数据中发生的事情(至少在很小的样本量下,请参见此处)。
[1]:斯科特,DW(1979), “关于最佳和数据为基础的直方图,” Biometrika,66,605-610。