Jeffries Matusita距离的优点


11

根据我正在阅读的一些论文,Jeffries和Matusita距离是常用的。但是除了下面的公式,我找不到更多的信息

JMD(x,y)=(xi2yi2)22

除平方根外,它与欧几里得距离相似

E(x,y)=(xiyi)22

在分类方面,据称JM距离比欧几里得距离更可靠。谁能解释为什么这种差异使JM距离更好?


1
我找不到使用该公式表示Jeffries-Matusita距离的权威参考。我发现的公式是基于两类协方差矩阵的,似乎与此处给出的公式没有关系,但似乎这个名称可能有两(或更多)种不同的事物。您能否提供参考或(甚至更好)链接?顺便说一句,和是否有机会计数?(如果是这样,则您的公式会得到自然的解释。)ÿ xiyi
whuber

1
@whuber:也许和代表y p x q x xyp(x)q(x)
2014年

@ user603是的,我认为您已经掌握了。现在,与KL分歧和Battacharyya度量的联系变得显而易见。
ub

Answers:


14

在下面进行更详细的说明之前,存在一些关键差异:

  1. 至关重要的是:Jeffries-Matusita距离适用于分布,而不是一般的向量。
  2. 您上面引用的JM距离公式仅适用于表示离散概率分布的向量(即,总和为1的向量)。
  3. 与欧几里得距离不同,JM距离可以推广到任何可以为其指定巴塔恰里距离的分布。
  4. JM距离通过Bhattacharrya距离具有概率解释。

Jeffries-Matusita距离在遥感文献中似乎特别流行,它是Bhattacharrya距离(两种分布之间的相异性的流行度量,在此表示为)从范围到固定范围:bp,q[0,inf)[0,2]

JMp,q=2(1exp(b(p,q))

根据本文,JM距离的实际优势在于,该措施“倾向于抑制高可分离性值,同时过分强调低可分离性值”。

Bhattacharrya距离在以下抽象连续意义上测量两个分布和的相异性: 如果分布和由直方图捕获,由单位长度向量表示(其中,第个元素是 bin中第个的归一化计数),它变为: 因此两个直方图的JM距离为: 其中,注意归一化直方图pq

b(p,q)=lnp(x)q(x)dx
pqiiN
b(p,q)=lni=1Npiqi
JMp,q=2(1i=1Npiqi)
ipi=1,与您在上面给出的公式相同:
JMp,q=i=1N(piqi)2=i=1N(pi2piqi+qi)=2(1i=1Npiqi)

+1非常感谢您参与并做出了非常出色的努力来澄清这种情况。
ub
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.