Estadísticas e inferencia causal?

51

En su artículo de 1984 "Estadísticas e inferencia causal" , Paul Holland planteó una de las preguntas más fundamentales en estadística:

¿Qué puede decir un modelo estadístico sobre la causalidad?

Esto llevó a su lema:

SIN CAUSAS SIN MANIPULACIÓN

que enfatizó la importancia de las restricciones en torno a los experimentos que consideran la causalidad. Andrew Gelman hace un punto similar :

"Para saber qué sucede cuando cambias algo, es necesario cambiarlo" ... Hay cosas que aprendes perturbando un sistema que nunca descubrirás a partir de cualquier cantidad de observación pasiva.

Sus ideas se resumen en este artículo .

¿Qué consideraciones deben hacerse al hacer una inferencia causal de un modelo estadístico?

Shane
fuente
2
gran pregunta: vea también esta pregunta relacionada sobre las estadísticas de
Jeromy Anglim
55
Mucho que decir. Pero puede leer el libro de Pearl "Causality" (2002, pero la segunda edición más reciente), o el libro de Hernan and Robins "Causal Inference" (2015, borrador electrónico gratuito en línea si busca).

Respuestas:

28

Esta es una pregunta amplia, pero dada la cita de Box, Hunter y Hunter es verdad, creo que todo se reduce a

  1. La calidad del diseño experimental:

    • aleatorización, tamaños de muestra, control de factores de confusión, ...
  2. La calidad de la implementación del diseño:

    • adhesión al protocolo, error de medición, manejo de datos, ...
  3. La calidad del modelo para reflejar con precisión el diseño:

    • las estructuras de bloqueo están representadas con precisión, los grados de libertad adecuados están asociados con los efectos, los estimadores son imparciales, ...

A riesgo de decir lo obvio, trataré de acertar en los puntos clave de cada uno:

  1. es un gran subcampo de estadísticas, pero en su forma más básica, creo que se reduce al hecho de que, al hacer una inferencia causal, idealmente comenzamos con unidades idénticas que se controlan en entornos idénticos además de ser asignados a un tratamiento. Cualquier diferencia sistemática entre los grupos después de la asignación es lógicamente atribuible al tratamiento (podemos inferir la causa). Pero, el mundo no es tan agradable y las unidades difieren antes del tratamiento y los entornos durante los experimentos no están perfectamente controlados. Así que "controlamos lo que podemos y aleatorizamos lo que no podemos", lo que ayuda a asegurar que no habrá sesgos sistemáticos debido a los factores de confusión que controlamos o aleatorizamos. Un problema es que los experimentos tienden a ser difíciles (hasta imposibles) y caros, y se ha desarrollado una gran variedad de diseños para extraer eficientemente tanta información como sea posible en un entorno tan cuidadosamente controlado como sea posible, dados los costos. Algunos de estos son bastante rigurosos (por ejemplo, en medicina, el ensayo doble ciego, aleatorizado, controlado con placebo) y otros menos (por ejemplo, varias formas de "cuasi-experimentos").

  2. También es un gran problema y uno en el que los estadísticos generalmente no piensan ... aunque deberíamos hacerlo. En el trabajo estadístico aplicado, puedo recordar incidencias donde los 'efectos' encontrados en los datos fueron resultados espurios de inconsistencia en la recolección o manejo de datos. También me pregunto con qué frecuencia se pierde información sobre los verdaderos efectos causales de interés debido a estos problemas (creo que los estudiantes de ciencias aplicadas generalmente tienen poca o ninguna capacitación sobre las formas en que los datos pueden corromperse, pero me estoy saliendo del tema aquí ...)

  3. es otro gran tema técnico, y otro paso necesario en la inferencia causal objetiva. Hasta cierto punto, esto se soluciona porque la multitud de diseño desarrolla diseños y modelos juntos (dado que la inferencia de un modelo es el objetivo, los atributos de los estimadores impulsan el diseño). Pero esto solo nos lleva tan lejos porque en el 'mundo real' terminamos analizando datos experimentales de diseños que no son de libros de texto y luego tenemos que pensar mucho sobre cosas como los controles apropiados y cómo deberían ingresar al modelo y qué grados asociados de la libertad debe ser y si se cumplen los supuestos, si no, cómo ajustar las violaciones y qué tan robustos son los estimadores para las violaciones restantes y ...

De todos modos, es de esperar que algo de lo anterior ayude a pensar en consideraciones al hacer inferencia causal a partir de un modelo. ¿Olvidé algo grande?

Kingsford Jones
fuente
3
Una gran ventaja para el punto 2. Además de recibir capacitación en protección de sujetos humanos, nunca he recibido la más mínima capacitación en recolección y almacenamiento de datos. Lograr que la recopilación de datos sea correcta es mucho más importante que el análisis.
Matt Parker
Me encantaría responder también, pero me temo que no queda nada más que agregar a lo que dijo Kingsford.
Joris Meys
7

Además de la excelente respuesta anterior, hay un método estadístico que puede acercarlo a demostrar la causalidad. Es la causalidad de Granger la que demuestra que una variable independiente que ocurre antes de que una variable dependiente tenga un efecto causal o no. Presento este método en una presentación fácil de seguir en el siguiente enlace:

http://www.slideshare.net/gaetanlion/granger-causality-presentation

También aplico este método para probar teorías macroeconómicas competitivas: http://www.slideshare.net/gaetanlion/economic-theory-testing-presentation

Tenga en cuenta que este método no es perfecto. Simplemente confirma que ciertos eventos ocurren antes que otros y que esos eventos parecen tener una relación direccional consistente. Esto parece implicar una verdadera causalidad, pero no siempre es así. La llamada matutina del gallo no hace que salga el sol.

Sympa
fuente
4

¿Qué puede decir un modelo estadístico sobre la causalidad? ¿Qué consideraciones deben hacerse al hacer una inferencia causal de un modelo estadístico?

Lo primero que debe quedar claro es que no puede hacer inferencia causal a partir de un modelo puramente estadístico. Ningún modelo estadístico puede decir algo sobre la causalidad sin supuestos causales. Es decir, para hacer una inferencia causal necesita un modelo causal .

Incluso en algo considerado como el estándar de oro, como los Ensayos de control aleatorio (ECA), debe hacer suposiciones causales para continuar. Déjame aclarar esto. Por ejemplo, suponga que es el procedimiento de aleatorización, el tratamiento de interés e el resultado de interés. Al asumir un ECA perfecto, esto es lo que está asumiendo:ZXY

ingrese la descripción de la imagen aquí

En este caso para que las cosas funcionen bien. Sin embargo, suponga que tiene el cumplimiento imperfecto lo que resulta en una relación confundido entre e . Entonces, ahora, su ECA se ve así:P(Y|do(X))=P(Y|X)XY

ingrese la descripción de la imagen aquí

Todavía puede hacer un intento de tratar el análisis. Pero si quieres estimar el efecto real de cosas ya no son simples. Esta es una configuración de variable instrumental, y es posible que pueda vincular o incluso identificar el efecto si hace algunos supuestos paramétricos .X

Esto puede ser aún más complicado. Puede tener problemas de error de medición, los sujetos pueden abandonar el estudio o no seguir las instrucciones, entre otros problemas. Tendrá que hacer suposiciones sobre cómo se relacionan esas cosas para proceder con la inferencia. Con datos de observación "puramente" esto puede ser más problemático, porque generalmente los investigadores no tendrán una buena idea del proceso de generación de datos.

Por lo tanto, para extraer inferencias causales de los modelos, debe juzgar no solo sus supuestos estadísticos, sino lo más importante, sus supuestos causales. Aquí hay algunas amenazas comunes para el análisis causal:

  • Datos incompletos / imprecisos
  • La cantidad de interés causal objetivo no está bien definida (¿Cuál es el efecto causal que desea identificar? ¿Cuál es la población objetivo?)
  • Confusión (factores de confusión no observados)
  • Sesgo de selección (autoselección, muestras truncadas)
  • Error de medición (que puede provocar confusión, no solo ruido)
  • Especificación incorrecta (p. Ej., Forma funcional incorrecta)
  • Problemas de validez externa (inferencia incorrecta a la población objetivo)

A veces, el diseño del estudio en sí mismo puede respaldar la afirmación de ausencia de estos problemas (o la afirmación de haber abordado estos problemas). Es por eso que los datos experimentales suelen ser más creíbles. A veces, sin embargo, las personas asumirán estos problemas ya sea con teoría o por conveniencia. Si la teoría es blanda (como en las ciencias sociales), será más difícil sacar las conclusiones al pie de la letra.

Cada vez que piense que hay una suposición que no se puede respaldar, debe evaluar cuán sensibles son las conclusiones a las violaciones plausibles de esas suposiciones, esto generalmente se llama análisis de sensibilidad.

Carlos Cinelli
fuente
¿Sería equivalente reemplazar la flecha bidireccional discontinua con dos flechas sólidas unidireccionales de un nodo adicional?
Taylor
@ Taylor sí, un nodo adicional latente (no observado).
Carlos Cinelli