信息理论CLT的最简单形式如下:
设等于均值和方差。令为归一化总和∑ n i = 1 X i的密度
从某种意义上说,由于Pinsker不等式,这种收敛肯定比文献中公认的收敛,分布收敛和 -metric 收敛“更强”。即,KL散度的收敛意味着分布的收敛和距离的收敛。
我想知道两件事。
结果什么?
难道仅仅是因为在第三段指出,我们说收敛KL散度(的原因,即,)是强?
注意:我前段时间在math.stackexchange中问了这个问题,但没有得到任何答案。
请提供重复的math.SE问题的链接。
—
主教
我已经看过那篇论文了。在第1页的第二段中,他从信息理论的角度给出了动机。当时我还不太清楚。现在看起来还可以。但是,如果可以清楚地解释以下内容并发布作为答案,那将是很好的。“根据信息理论,当描述来自的样本的量化时,相对熵是基于正态分布的香农代码的冗余(平均描述长度过多)的最小上限”。我已在math.SE中删除了该问题,因为那里没有吸引任何人˚F ñ
—
Ashok
@cardinal:谢谢你的好论文。
—
2012年