Si bien me gusta pensar que tengo una buena comprensión del concepto de información previa en el análisis estadístico bayesiano y la toma de decisiones, a menudo tengo problemas para comprender mi aplicación. Tengo en mente un par de situaciones que ejemplifican mis luchas, y siento que no se abordan adecuadamente en los libros de texto estadísticos bayesianos que he leído hasta ahora:
Digamos que realicé una encuesta hace unos años que dice que el 68% de las personas estarían interesadas en comprar un producto ACME. Decido ejecutar la encuesta nuevamente. Si bien usaré el mismo tamaño de muestra que la última vez (por ejemplo, n = 400), es probable que las opiniones de las personas hayan cambiado desde entonces. Sin embargo, si lo uso como anterior con una distribución beta en la que 272 de los 400 encuestados respondieron "sí", estaría dando el mismo peso a la encuesta que realicé hace unos años y la que estaría ejecutando ahora. ¿Existe una regla general para establecer la mayor incertidumbre que me gustaría colocar sobre el anterior en virtud de que esos datos tienen algunos años? Entiendo que puedo reducir el previo de 272/400 a, digamos, 136/200, pero esto se siente extremadamente arbitrario, y me pregunto si hay alguna forma de justificación, tal vez en la literatura,
Para otro ejemplo, digamos que estamos a punto de realizar un ensayo clínico. Antes de lanzar el ensayo, realizamos algunas investigaciones secundarias que podríamos utilizar como información previa, incluidas opiniones de expertos, resultados de ensayos clínicos anteriores (de diversa relevancia), otros hechos científicos básicos, etc. ¿Cómo se puede combinar ese espectro de información? (algunos de los cuales no son de naturaleza cuantitativa) a una distribución de probabilidad previa? ¿Es solo el caso de tomar una decisión sobre qué familia elegir y hacer que sea lo suficientemente difusa como para garantizar que los datos lo sobrecarguen, o hay mucho trabajo para establecer una distribución previa bastante informativa?
Respuestas:
Su idea de tratar su información previa de 272 éxitos en 400 intentos tiene una justificación bayesiana bastante sólida.
El problema con el que se enfrenta, como reconoció, es el de estimar una probabilidad de éxito de un experimento de Bernoulli. La distribución Beta es el correspondiente "conjugado previo". Dichos anteriores conjugados disfrutan de la "interpretación ficticia de la muestra":θ
La versión beta anterior es Esto se puede interpretar como la información contenida en una muestra de tamaño (en , ya que no necesita ser entero, por supuesto ) con éxitos: Por lo tanto, si toma y , esto corresponde a los parámetros anteriores yn_=α0+β0-2n_α0-1π(θ)=Γ(α0+β0)
pero aumenta la varianza anterior de
a
como se desee.
fuente