Preguntas etiquetadas con k-nearest-neighbour

Clasificadores de k-vecino más cercano Estos clasificadores se basan en la memoria y no requieren que se ajuste ningún modelo. Dado un punto de consulta x0, encontramos los k puntos de entrenamiento x (r), r = 1, ..., k más cercanos en distancia a x0, y luego clasificamos usando el voto mayoritario entre los k vecinos.

28
Calcular la repetibilidad de los efectos de un modelo más antiguo

Acabo de encontrar este artículo , que describe cómo calcular la repetibilidad (también conocida como confiabilidad, también conocida como correlación intraclase) de una medición a través del modelado de efectos mixtos. El código R sería: #fit the model fit =

18
Complejidad computacional k-NN

¿Cuál es la complejidad temporal del algoritmo k -NN con un enfoque de búsqueda ingenuo (sin árbol kd o similares)? Estoy interesado en su complejidad temporal considerando también el hiperparámetro k . He encontrado respuestas contradictorias: O (nd + kn), donde n es la cardinalidad del...

15
Elegir K óptimo para KNN

Realicé un CV de 5 veces para seleccionar la K óptima para KNN. Y parece que cuanto más grande se hace K, más pequeño es el error ... Lo siento, no tenía una leyenda, pero los diferentes colores representan diferentes pruebas. Hay 5 en total y parece que hay poca variación entre ellos. El error...

15
¿Por qué necesita escalar datos en KNN?

¿Podría alguien explicarme por qué necesita normalizar los datos cuando usa K vecinos más cercanos? He intentado buscar esto, pero parece que todavía no puedo entenderlo. Encontré el siguiente enlace: https://discuss.analyticsvidhya.com/t/why-it-is-necessary-to-normalize-in-knn/2715 Pero en...

14
Paquetes de imputación KNN R

Estoy buscando un paquete de imputación KNN. He estado mirando el paquete de imputación ( http://cran.r-project.org/web/packages/imputation/imputation.pdf ) pero, por alguna razón, la función de imputación KNN (incluso cuando se sigue el ejemplo de la descripción) solo parece para imputar valores...

13
Tratar con lazos, pesas y votar en kNN

Estoy programando un algoritmo kNN y me gustaría saber lo siguiente: Tie-breaks: ¿Qué sucede si no hay un ganador claro en la votación mayoritaria? Por ejemplo, todos los vecinos más cercanos k son de diferentes clases, o para k = 4 hay 2 vecinos de la clase A y 2 vecinos de la clase B? ¿Qué...

12
Estimadores de densidad de kernel adaptativos?

¿Alguien puede informar sobre su experiencia con un estimador de densidad de núcleo adaptativo? (Hay muchos sinónimos: adaptativo | variable | ancho variable, KDE | histograma | interpolador ...) La estimación de densidad de kernel variable dice "variamos el ancho del kernel en diferentes...

11
Pros de Jeffries Matusita distancia

Según algún artículo que estoy leyendo, la distancia de Jeffries y Matusita se usa comúnmente. Pero no pude encontrar mucha información al respecto, excepto la fórmula a continuación JMD (x, y) = ∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Es similar...