Según algún artículo que estoy leyendo, la distancia de Jeffries y Matusita se usa comúnmente. Pero no pude encontrar mucha información al respecto, excepto la fórmula a continuación
JMD (x, y) =
Es similar a la distancia euclidiana, excepto por la raíz cuadrada
E (x, y) =
Se dice que la distancia JM es más confiable que la distancia euclidiana en términos de clasificación. ¿Alguien puede explicar por qué esta diferencia hace que la distancia JM sea mejor?
classification
k-nearest-neighbour
euclidean
romy_ngo
fuente
fuente
Respuestas:
Algunas diferencias clave, que preceden a una explicación más larga a continuación, son:
Una ventaja práctica de la distancia JM, de acuerdo con este documento, es que esta medida "tiende a suprimir los valores altos de separabilidad, mientras que enfatiza demasiado los valores bajos de separabilidad".
La distancia de Bhattacharrya mide la disimilitud de dos distribuciones y en el siguiente sentido continuo abstracto: Si las distribuciones y son capturados por histogramas, representados por vectores de longitud unitaria (donde el ésimo elemento es el recuento normalizado para ésima de contenedores) esto se convierte en: Y, en consecuencia, la distancia JM para los dos histogramas es: Que, señalando eso para histogramas normalizadosp q
fuente