有许多方法可以测量两个概率分布的相似程度。在不同的圈子中流行的方法有:
Kolmogorov距离:分布函数之间的超距离;
坎托罗维奇-鲁宾斯坦距离:两个具有Lipschitz常数的函数的期望值之间的最大差,也就是分布函数之间的L 1距离;
bounded-Lipschitz距离:与KR距离一样,但函数也必须具有最大绝对值。
这些有不同的优点和缺点。实际上,只有3.意义上的收敛才真正对应于分布的收敛。一般而言,在1.或2.的意义上的收敛性要强一些。(特别是如果的概率为1,则Xn的分布收敛为0,但不在Kolmogorov距离内收敛。但是,如果极限分布是连续的,则不会发生这种病理情况。)
从基本概率或测度理论的角度来看,1.很自然,因为它比较了某个集合中的概率。另一方面,更复杂的概率视角倾向于更多地关注期望而不是概率。同样,从功能分析的角度来看,基于二元性和某些功能空间的距离(如2.或3.)非常吸引人,因为有大量的数学工具可用于处理此类事物。
但是,我的印象(如果我错了,请纠正我!)是在统计中,Kolmogorov距离是衡量分布相似度的通常首选方法。我可以猜出一个原因:如果其中一个分布是在有限支持下离散的,特别是如果它是一些实际数据的分布,那么到模型分布的Kolmogorov距离就很容易计算。(实际上,KR距离的计算较难,BL距离实际上是不可能的。)
因此,我的问题(最后)是,出于统计目的,是否还有其他原因(无论是实践原因还是理论原因)都倾向于使用Kolmogorov距离(或其他距离)?