Mis preguntas reales están en los últimos dos párrafos, pero para motivarlos:
Si intento estimar la media de una variable aleatoria que sigue una distribución Normal con una varianza conocida, he leído que poner un uniforme antes en la media da como resultado una distribución posterior que es proporcional a la función de probabilidad. En estas situaciones, el intervalo creíble bayesiano se superpone perfectamente con el intervalo de confianza frecuentista, y la estimación bayesiana máxima a posteriori es igual a la estimación de probabilidad máxima frecuentista.
En una configuración de regresión lineal simple,
poner un previo uniforme sobre y una inversa-gamma antes en σ 2 con pequeños valores de los parámetros da como resultado una posterior β M A P que será muy similar a la frequentist β M L E , y un intervalo creíble para la distribución posterior de β | X que será muy similar al intervalo de confianza alrededor de la estimación de máxima verosimilitud. No serán exactamente iguales porque lo anterior en σ 2ejerce una pequeña cantidad de influencia, y si la estimación posterior se lleva a cabo a través de la simulación MCMC que introducirá otra fuente de discrepancia, pero el intervalo de credibilidad bayesiano alrededor de la β M A P e intervalo de confianza alrededor de frequentist β M L E será bastante cerca uno del otro, y, por supuesto, a medida que aumenta el tamaño de la muestra, deberían converger a medida que la influencia de la probabilidad crece para dominar la del anterior.
Pero he leído que también hay situaciones de regresión donde estas casi equivalencias no se mantienen. Por ejemplo, regresiones jerárquicas con efectos aleatorios, o regresión logística: estas son situaciones en las que, según tengo entendido, no hay objetivos "buenos" o referencias previas.
y que no tengo información previa que quiera incorporar, ¿por qué no puedo proceder con la estimación frecuente de máxima verosimilitud en estas situaciones e interpretar las estimaciones de coeficientes resultantes y los errores estándar como estimaciones MAPes bayesianas y desviaciones estándar, y tratarlas implícitamente? ¿Estimaciones "posteriores" como resultado de un previo que debe haber sido "poco informativo" sin intentar encontrar la formulación explícita del anterior que conduciría a tal posterior? En general, dentro del ámbito del análisis de regresión, ¿cuándo está bien proceder a lo largo de estas líneas (de tratar la probabilidad como un posterior) y cuándo no está bien? ¿Qué pasa con los métodos frecuentas que no se basan en la probabilidad, como los métodos de cuasi-probabilidad,
¿Las respuestas dependen de si mi objetivo de inferencia son estimaciones puntuales de coeficientes, o la probabilidad de que un coeficiente esté dentro de un rango particular, o cantidades de la distribución predictiva?
fuente