9 我正在尝试理解逐点相互信息的规范化形式。 n p m i =p m i (x ,y)升Ò 克(p (x ,y))ñp米一世=p米一世(X,ÿ)升ØG(p(X,ÿ)) 为什么对数联合概率将逐点相互信息归一化为[-1,1]之间? 逐点相互信息是: pmi=log(p(x,y)p(x)p(y))pmi=log(p(x,y)p(x)p(y)) p(x,y)的边界是[0,1],所以log(p(x,y))的边界是(,0]。看来log(p(x,y))应该以某种方式平衡变化分子,但是我不知道怎么做,这也让我想起了熵 h=−log(p(x))h=−log(p(x)),但我仍然不了解确切的关系。 entropy information-theory mutual-information — 2美分 source 首先,逐点相互信息使用对数(我不确定它是否是错字或您是否使用其他数量)。 — Piotr Migdal
12 从Wikipedia上关于逐点相互信息的条目: 逐点相互信息可以在[-1,+ 1]之间进行归一化,从而使-1(在极限内)永远不会一起出现,0表示独立性,而+1表示完全共现。 为什么会发生?好吧,逐点相互信息的定义是 p 米我≡ 登录[p (X ,ÿ)p (x )p (y)] =日志p (X ,ÿ)- 日志p (x )- 对数p (ÿ),p米一世≡日志[p(X,ÿ)p(X)p(ÿ)]=日志p(X,ÿ)-日志p(X)-日志p(ÿ), 而对于归一化的逐点相互信息是: Ñ p 中号我≡p 米我− 日志p (X ,ÿ)=日志[ p (x )p (y)]日志p (X ,ÿ)− 1。ñp米一世≡p米一世-日志p(X,ÿ)=日志[p(X)p(ÿ)]日志p(X,ÿ)-1。 什么时候有: 没有共现, 日志p (X ,ÿ)→ - ∞日志p(X,ÿ)→-∞,因此nmpi为-1, 随机共现 日志p (X ,ÿ)= 日志[ p (x )p (y)]日志p(X,ÿ)=日志[p(X)p(ÿ)],因此nmpi为0, 完全共现 日志p (X ,ÿ)= 日志p (x )= 对数p (ÿ)日志p(X,ÿ)=日志p(X)=日志p(ÿ),因此 nmpi为1。 — 皮格特·米格达(Piotr Migdal) source 这将是一个更完整的答案,以显示为什么npmi处于间隔 [ - 1 ,1 ][-1个,1个]。在其他答案中查看我的证明。 — 汉斯(Hans)
1 尽管Piotr Migdal的答案在提供nmpi达到三个极值的示例方面很有帮助,但并不能证明它在区间上 [ - 1 ,1 ][-1个,1个]。这是不等式及其推导。 ≤==≤日志p (X ,ÿ)日志p (X ,ÿ))- 日志p (x )- 对数p (ÿ)日志p (X ,ÿ)p (x )p (y)= : pmi (x ; y)日志p (ÿ| x)+日志p (ÿ| x)-对数p (X ,ÿ)− 日志p (X ,ÿ)日志p(X,ÿ)≤日志p(X,ÿ))-日志p(X)-日志p(ÿ)=日志p(X,ÿ)p(X)p(ÿ)=:pmi(X;ÿ)=日志p(ÿ|X)+日志p(ÿ|X)-日志p(X,ÿ)≤-日志p(X,ÿ) 如 − 日志p (甲)≥ 0-日志p(一个)≥0 对于任何事件 一个一个。双方除以非负数ħ (X ,ÿ):= - 日志p (X ,ÿ)H(X,ÿ):=-日志p(X,ÿ), 我们有 - 1 ≤ NMPI (X ; ÿ):=mpi(x; y)ħ (X ,ÿ)≤1 。-1个≤pi(X;ÿ):=mpi(x; y)H(X,ÿ)≤1。 — 汉斯 source