Answers:
更好的方法是通过仿真计算p值的临界值。问题是,当您从数据而不是使用假设的值估计参数时,KS统计量的分布不会遵循零分布。
您可以忽略KS测试中的p值,而是根据与实际数据大小相同的候选分布(带有有意义的参数集)模拟一堆数据集。然后针对每个集合估计参数,并使用估计的参数进行KS测试。p值将是来自模拟集的检验统计信息所占比例比原始数据高得多的比例。
样本拆分也许可以减少统计信息分布的问题,但不能将其删除。
您的想法避免了估计值相对于总体值“太接近”的问题,因为它们基于相同的样本。
您无法避免它们仍然是估计的问题。检验统计量的分布不是列表的。
在这种情况下,它会提高无效值下的拒绝率,而不是显着降低它。
更好的选择是使用不假定参数已知的测试,例如Shapiro Wilk。
如果您不喜欢Kolmogorov-Smirnov类型的测试,则可以采用Lilliefors的测试方法。
也就是说,要使用KS统计量,但要使测试统计量的分布反映出参数估计的效果,请在参数估计下模拟测试统计量的分布。(它不再是无发行版的,因此每个发行版都需要新表。)
http://en.wikipedia.org/wiki/Lilliefors_test
Liliefors在正态和指数情况下使用了模拟,但是对于任何特定的分布,您都可以轻松地进行模拟。在类似R的过程中,仅需一点时间即可模拟10,000或100,000个样本,并在null下获得测试统计量的分布。
[另一种选择是考虑确实存在相同问题的安德森·达林(Anderson-Darling),但根据D'Agostino和Stephens(Goodness-fit-techniques)的书判断,它似乎对此不太敏感。您可以改编Lilliefors的想法,但他们建议进行一个相对简单的调整,似乎效果很好。]
但是还有其他方法。例如,有一系列关于拟合优度的平滑测试(例如,请参见Rayner和Best的书),它们可以在许多特定情况下处理参数估计。
*影响仍然可能很大-可能比通常认为可接受的程度还大;Momo表达对此表示关注是正确的。如果较高的I型错误率(以及较平坦的功率曲线)出现问题,那么这可能不是一个改善!
恐怕不能解决问题。我相信问题不在于参数是从同一样本估计的,而是从任何样本估计的。KS测试的通常零分布的推导没有考虑参考分布参数中的任何估计误差,而是将其视为给定的。另请参见Durbin 1973,他详细讨论了此问题并提供了解决方案。