He visto un par de charlas de no estadísticos donde parecen reinventar las medidas de correlación utilizando información mutua en lugar de regresión (o pruebas estadísticas equivalentes / estrechamente relacionadas).
Supongo que hay una buena razón por la cual los estadísticos no toman este enfoque. Mi lego entiende que los estimadores de entropía / información mutua tienden a ser problemáticos e inestables. Asumo que el poder también es problemático como resultado: intentan evitar esto alegando que no están usando un marco de prueba paramétrico. Por lo general, este tipo de trabajo no molesta con los cálculos de potencia, o incluso con la confianza / intervalos creíbles.
Pero para tomar la posición de defensor del diablo, ¿es tan lenta la convergencia lenta cuando los conjuntos de datos son extremadamente grandes? Además, a veces estos métodos parecen "funcionar" en el sentido de que las asociaciones son validadas por estudios de seguimiento. ¿Cuál es la mejor crítica contra el uso de información mutua como medida de asociación y por qué no se usa ampliamente en la práctica estadística?
editar: Además, ¿hay algún buen documento que cubra estos problemas?
fuente
Respuestas:
Creo que debería distinguir entre datos categóricos (discretos) y datos continuos.
Para datos continuos, la correlación de Pearson mide una relación lineal (monotónica), la correlación de rango es una relación monotónica.
MI por otro lado "detecta" cualquier relación. Esto normalmente no es lo que le interesa y / o es probable que sea ruido. En particular, debe estimar la densidad de la distribución. Pero como es continuo, primero debe crear un histograma [contenedores discretos] y luego calcular el IM. Pero dado que el MI permite cualquier relación, el MI cambiará a medida que use contenedores más pequeños (es decir, permita más movimientos). Por lo tanto, puede ver que la estimación de MI será muy inestable y no le permitirá poner intervalos de confianza en la estimación, etc. [Lo mismo ocurre si realiza una estimación de densidad continua]. Básicamente, hay demasiadas cosas para estimar antes de calcular el MI
Los datos categóricos, por otro lado, encajan bastante bien en el marco de MI (ver prueba G), y no hay mucho para elegir entre la prueba G y el chi-cuadrado.
fuente