Answers:
当您说“信息内容可能保持不变”时,您是指总信号中的信息还是所需信号的信息?希望这能回答这两种情况。我知道香农的熵要比科尔摩哥罗夫好得多,所以我会用它,但是希望逻辑能够转化。
假设是您的总信号(),由所需信号和噪声分量的总和组成。我们叫熵。如您所说,噪声通过增加系统的复杂性而增加了熵。但是,这不仅因为我们对信号的信息内容更加不确定,而且还因为整个信号的不确定性更大。如果SNR样的措施,我们是什么如何某些的,则样的措施如何,我们可以预测未来状态基于当前的状态X S N H S H (X )X X。熵与整个信号的复杂程度有关,而与噪声与非噪声的成分无关。
如果通过消除噪声(衰减)来提高SNR ,则会降低总信号的复杂度,从而降低其熵。您没有丢失承载的任何信息,仅丢失了承载的(可能毫无意义的)信息。如果是随机噪声,则显然它不携带有意义的信息,但是它需要一定量的信息来描述的状态,该状态由N可以处于的状态数以及它处于每个状态。那就是熵。X S N N N
我们可以看看两个高斯分布与不同的方差,说一个人的方差,另一个具有的方差。仅查看高斯分布的方程式,我们看到分布的最大概率仅为 distr概率的值的。相反,这意味着 distr将采用除均值以外的其他值的可能性更大,或者更有可能确定分布将采用均值附近的值。因此,分布的熵低于100 V 一- [R = 100 1 v一个[R=1个V一- [R=100V一- [R=1个V一- [R=1个V一- [R=100 分配。
我们建立了更高的方差意味着更高的熵。从错误传播的角度来看,也确实是(等于独立,)。如果,则对于熵,。由于(间接地)是方差的函数,因此我们可以稍作改动以说。为了简化,我们说和是独立的,所以。SNR的提高通常意味着衰减噪声功率。然后,具有较高SNR的新信号将为,对于X Y X = S + N H H (X )= H (S + N )H H (V a r [ X ] )= H (V a r [ S +S N H (V a r [ X ] )= H (V a r [ S ] + V a r [ N ] )X = S + (1k>1H(Var[X])=H(Var[S]+(1/k)2*Var[N])k1Var[N]Var[ñ]V一- [R[小号+ñ]。熵然后变为。大于,因此当N衰减时,将减小。如果减小,那么减小,因此减小。ħ (X )
不太简洁,抱歉。简而言之,如果增加SNR,则的熵会减小,但对的信息却什么也没做。我现在找不到源,但是有一种方法可以相互计算SNR和互信息(类似于熵的双变量度量)。也许主要的收获是SNR和熵不能衡量同一件事。小号