En su artículo de 1984 "Estadísticas e inferencia causal" , Paul Holland planteó una de las preguntas más fundamentales en estadística:
¿Qué puede decir un modelo estadístico sobre la causalidad?
Esto llevó a su lema:
SIN CAUSAS SIN MANIPULACIÓN
que enfatizó la importancia de las restricciones en torno a los experimentos que consideran la causalidad. Andrew Gelman hace un punto similar :
"Para saber qué sucede cuando cambias algo, es necesario cambiarlo" ... Hay cosas que aprendes perturbando un sistema que nunca descubrirás a partir de cualquier cantidad de observación pasiva.
Sus ideas se resumen en este artículo .
¿Qué consideraciones deben hacerse al hacer una inferencia causal de un modelo estadístico?
Respuestas:
Esta es una pregunta amplia, pero dada la cita de Box, Hunter y Hunter es verdad, creo que todo se reduce a
La calidad del diseño experimental:
La calidad de la implementación del diseño:
La calidad del modelo para reflejar con precisión el diseño:
A riesgo de decir lo obvio, trataré de acertar en los puntos clave de cada uno:
es un gran subcampo de estadísticas, pero en su forma más básica, creo que se reduce al hecho de que, al hacer una inferencia causal, idealmente comenzamos con unidades idénticas que se controlan en entornos idénticos además de ser asignados a un tratamiento. Cualquier diferencia sistemática entre los grupos después de la asignación es lógicamente atribuible al tratamiento (podemos inferir la causa). Pero, el mundo no es tan agradable y las unidades difieren antes del tratamiento y los entornos durante los experimentos no están perfectamente controlados. Así que "controlamos lo que podemos y aleatorizamos lo que no podemos", lo que ayuda a asegurar que no habrá sesgos sistemáticos debido a los factores de confusión que controlamos o aleatorizamos. Un problema es que los experimentos tienden a ser difíciles (hasta imposibles) y caros, y se ha desarrollado una gran variedad de diseños para extraer eficientemente tanta información como sea posible en un entorno tan cuidadosamente controlado como sea posible, dados los costos. Algunos de estos son bastante rigurosos (por ejemplo, en medicina, el ensayo doble ciego, aleatorizado, controlado con placebo) y otros menos (por ejemplo, varias formas de "cuasi-experimentos").
También es un gran problema y uno en el que los estadísticos generalmente no piensan ... aunque deberíamos hacerlo. En el trabajo estadístico aplicado, puedo recordar incidencias donde los 'efectos' encontrados en los datos fueron resultados espurios de inconsistencia en la recolección o manejo de datos. También me pregunto con qué frecuencia se pierde información sobre los verdaderos efectos causales de interés debido a estos problemas (creo que los estudiantes de ciencias aplicadas generalmente tienen poca o ninguna capacitación sobre las formas en que los datos pueden corromperse, pero me estoy saliendo del tema aquí ...)
es otro gran tema técnico, y otro paso necesario en la inferencia causal objetiva. Hasta cierto punto, esto se soluciona porque la multitud de diseño desarrolla diseños y modelos juntos (dado que la inferencia de un modelo es el objetivo, los atributos de los estimadores impulsan el diseño). Pero esto solo nos lleva tan lejos porque en el 'mundo real' terminamos analizando datos experimentales de diseños que no son de libros de texto y luego tenemos que pensar mucho sobre cosas como los controles apropiados y cómo deberían ingresar al modelo y qué grados asociados de la libertad debe ser y si se cumplen los supuestos, si no, cómo ajustar las violaciones y qué tan robustos son los estimadores para las violaciones restantes y ...
De todos modos, es de esperar que algo de lo anterior ayude a pensar en consideraciones al hacer inferencia causal a partir de un modelo. ¿Olvidé algo grande?
fuente
Además de la excelente respuesta anterior, hay un método estadístico que puede acercarlo a demostrar la causalidad. Es la causalidad de Granger la que demuestra que una variable independiente que ocurre antes de que una variable dependiente tenga un efecto causal o no. Presento este método en una presentación fácil de seguir en el siguiente enlace:
http://www.slideshare.net/gaetanlion/granger-causality-presentation
También aplico este método para probar teorías macroeconómicas competitivas: http://www.slideshare.net/gaetanlion/economic-theory-testing-presentation
Tenga en cuenta que este método no es perfecto. Simplemente confirma que ciertos eventos ocurren antes que otros y que esos eventos parecen tener una relación direccional consistente. Esto parece implicar una verdadera causalidad, pero no siempre es así. La llamada matutina del gallo no hace que salga el sol.
fuente
Lo primero que debe quedar claro es que no puede hacer inferencia causal a partir de un modelo puramente estadístico. Ningún modelo estadístico puede decir algo sobre la causalidad sin supuestos causales. Es decir, para hacer una inferencia causal necesita un modelo causal .
Incluso en algo considerado como el estándar de oro, como los Ensayos de control aleatorio (ECA), debe hacer suposiciones causales para continuar. Déjame aclarar esto. Por ejemplo, suponga que es el procedimiento de aleatorización, el tratamiento de interés e el resultado de interés. Al asumir un ECA perfecto, esto es lo que está asumiendo:Z X Y
En este caso para que las cosas funcionen bien. Sin embargo, suponga que tiene el cumplimiento imperfecto lo que resulta en una relación confundido entre e . Entonces, ahora, su ECA se ve así:P(Y|do(X))=P(Y|X) X Y
Todavía puede hacer un intento de tratar el análisis. Pero si quieres estimar el efecto real de cosas ya no son simples. Esta es una configuración de variable instrumental, y es posible que pueda vincular o incluso identificar el efecto si hace algunos supuestos paramétricos .X
Esto puede ser aún más complicado. Puede tener problemas de error de medición, los sujetos pueden abandonar el estudio o no seguir las instrucciones, entre otros problemas. Tendrá que hacer suposiciones sobre cómo se relacionan esas cosas para proceder con la inferencia. Con datos de observación "puramente" esto puede ser más problemático, porque generalmente los investigadores no tendrán una buena idea del proceso de generación de datos.
Por lo tanto, para extraer inferencias causales de los modelos, debe juzgar no solo sus supuestos estadísticos, sino lo más importante, sus supuestos causales. Aquí hay algunas amenazas comunes para el análisis causal:
A veces, el diseño del estudio en sí mismo puede respaldar la afirmación de ausencia de estos problemas (o la afirmación de haber abordado estos problemas). Es por eso que los datos experimentales suelen ser más creíbles. A veces, sin embargo, las personas asumirán estos problemas ya sea con teoría o por conveniencia. Si la teoría es blanda (como en las ciencias sociales), será más difícil sacar las conclusiones al pie de la letra.
Cada vez que piense que hay una suposición que no se puede respaldar, debe evaluar cuán sensibles son las conclusiones a las violaciones plausibles de esas suposiciones, esto generalmente se llama análisis de sensibilidad.
fuente