是否有数量的任何使用


Answers:


24

表示概率密度函数(分别针对Lebesgue或计数度量),数量 被称为阶的Renyi熵。它是香农熵的概括,保留了许多相同的属性。对于的情况,我们将解释为,并且它对应于标准Shannon熵。f

Hα(f)=1α1log(fαdμ)
α0α=1H1(f)limα1Hα(f)H(f)

人一在他的论文中介绍了这一点

A.仁义,关于信息和熵的度量Proc。伯克利第四届症状。关于数学,统计 和概率。(1960),第547–561页。

非常值得一读,不仅对于创意,而且对于示范性的博览会风格也是如此。

的情况下是用于更常见的选择之一和这种特殊情况下(也)常常被称为仁义熵。在这里,我们看到, 为密度为的随机变量。α=2α

H2(f)=log(f2dμ)=log(Ef(X))
f

请注意是凸函数,因此,根据詹森不等式,我们有 其中,右侧表示香农熵。因此,Renyi熵为Shannon熵提供了一个下限,并且在许多情况下更易于计算。log(x)

H2(f)=log(Ef(X))E(logf(X))=Elogf(X)=H(f)

当考虑离散随机变量和独立副本时,出现Renyi熵的另一个自然实例。在某些情况下,我们想知道的概率,根据基本计算,它是 XXX=X

P(X=X)=i=1P(X=xi,X=xi)=i=1P(X=xi)P(X=xi)=eH2(f).

在此,表示关于值的集合上的计数度量的密度。fΩ={xi:iN}

(一般的)“仁义”熵显然也与处于热平衡状态下的系统的自由能有关,尽管我个人并没有这么做。关于该主题的(非常)近期的论文是

JC Baez,《仁义熵与自由能》,arXiv [quan-ph] 1101.2098(2011年2月)。


实际上,我确实在使用Renyi熵代替Shannon熵。很高兴看到我的直觉得到确认。谢谢您的启发。
charles.y.zheng 2011年

1
香农熵的许多(但不是全部!)特性和有用性来自其凸性。如果您查看信息论中基础知识的积累,它们或多或少取决于詹森的不等式。因此,在某种(模糊的)意义上,关于并没有太多(非常)特别之处,因为它导致了“信息”概念的特定非线性。logx
主教

1
我知道了。具体来说,我需要一个属性,即满足给定边际的最大熵联合分布是边际的乘积(您将从独立中获得的
收益
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.