什么时候使用曼哈顿距离与欧几里得距离相反?
我正在尝试寻找一个很好的论据,说明为什么在机器学习中为什么要使用曼哈顿距离而不是欧几里得距离。 到目前为止,我发现与一个很好的论点最接近的事情是在麻省理工学院的这次演讲中。 在36:15,您可以在幻灯片上看到以下语句: “通常使用欧几里德度量;如果不同维度之间不具有可比性,则曼哈顿可能是合适的。 ” 在教授说之后不久,由于爬行动物的腿数从0到4变化(而其他特征是二进制的,仅从0到1变化),因此“腿数”特征最终将具有更高的特征如果使用欧氏距离,则为重量。果然,这确实是对的。但是如果使用曼哈顿距离,也会有一个问题(只是因为我们不会像欧几里德距离那样对差进行平方处理,所以该问题会得到稍微缓解)。 解决上述问题的一种更好的方法是将“支路数”特征规格化,以便其值始终在0到1之间。 因此,由于有更好的解决方法,至少在我看来,在这种情况下使用曼哈顿距离的论点缺乏要点。 有人真的知道为什么以及何时有人会在欧几里得上使用曼哈顿距离吗?谁能给我一个使用曼哈顿距离会产生更好结果的例子吗?