Estoy confundido sobre cómo evaluar la distribución predictiva posterior para la regresión lineal bayesiana, más allá del caso básico descrito aquí en la página 3, y copiado a continuación.
El caso básico es este modelo de regresión lineal:
Si usamos un previo uniforme en , con una escala-Inv anterior en , O el anterior normal-inverso-gamma (ver aquí ) la distribución predictiva posterior es analítica y es t de Student. χ 2 σ 2
¿Qué hay de este modelo?
Cuando , pero se conoce, la distribución predictiva posterior es gaussiana multivariante. Por lo general, no sabes , pero tienes que estimarlo. Tal vez dices que es diagonal y haces que la diagonal sea una función de las covariables de alguna manera. Esto se discute en el capítulo de regresión lineal del Análisis de datos bayesianos de Gelman .Σ Σ
¿Existe una forma analítica para la distribución predictiva posterior en este caso? ¿Puedo conectar mi estimación en una t de estudiante multivariante? Si estima más de una varianza, ¿la distribución sigue siendo multivariante t de estudiante?
Me pregunto porque dicen que tengo un poco de ya en la mano. Quiero saber si es más probable que haya sido predicho por ejemplo, por regresión lineal A, regresión lineal B
Respuestas:
Si asume un uniforme anterior en , entonces el posterior para es with Para encontrar la distribución predictiva, necesitamos más información. Si y es condicionalmente independiente de dado , entonces Pero, por lo general, para este tipo de modelos, y no son condicionalmente independientes, en su lugar, normalmente tenemos β β | y ~ N ( β , V β ) . Β = [ X ' Σ - 1 X ] X ' yβ β
fuente
En las versiones previas no informativas o multivariadas de Normal-Wishart, tiene la forma analítica como una distribución de estudiante multivariada, para una regresión múltiple, clásica, multivariada. Supongo que los desarrollos en este documento están relacionados con su pregunta (puede que le guste el Apéndice A :-)). Típicamente comparé el resultado con una distribución predictiva posterior obtenida usando WinBUGS y la forma analítica: son exactamente equivalentes. El problema solo se vuelve difícil cuando tiene efectos aleatorios adicionales en modelos de efectos mixtos, especialmente en diseños desequilibrados.
¡En general, con regresiones clásicas, y y ỹ son condicionalmente independientes (los residuos son iid)! Por supuesto, si no es el caso, entonces la solución propuesta aquí no es correcta.
En R, (aquí, la solución para los antecedentes uniformes), suponiendo que usted hizo un modelo lm (llamado "modelo") de una de las respuestas en su modelo, y lo llamó "modelo", aquí es cómo obtener la distribución predictiva multivariada
Ahora, los cuantiles de ysim son intervalos de tolerancia de expectativa beta de la distribución predictiva, por supuesto, puede usar directamente la distribución muestreada para hacer lo que quiera.
fuente