Densidad previa no informativa en normal

9

Bayesian Data Analysis (p. 64) dice, con respecto a un modelo normal :

una densidad previa vaga sensible para μ y σ, suponiendo que la independencia previa de los parámetros de ubicación y escala, sea uniforme en (μ,logσ), o equivalente,

p(μ,σ2)(σ2)1.

¿Por qué se ha terminado el uniforme? p(μ,logσ) equivalente a p(μ,σ2)(σ2)1?

¿Por qué es eso un prior "sensible"?

Hatshepsut
fuente

Respuestas:

10

Dejar ϕ=log(σ)=12log(σ2) para que tengas la transformación inversa σ2=exp(2ϕ). Ahora aplicamos la regla estándar para las transformaciones de variables aleatorias para obtener:

p(σ2)=p(ϕ)|dϕdσ2|112σ2(σ2)1.

Dado que los parámetros son independientes en este previo, entonces tenemos:

p(μ,σ2)=p(μ)p(σ2)(σ2)1.

Esto proporciona la forma establecida para la densidad previa inadecuada. En cuanto a la justificación de por qué este prior es sensato, existen varias vías de apelación. La justificación más simple es que nos gustaría tomarμ y logσser uniforme para representar "ignorancia" sobre estos parámetros. Tomar el logaritmo de la varianza es una transformación que garantiza que nuestras creencias sobre ese parámetro sean invariantes de escala . (Nuestras creencias sobre el parámetro medio también son invariantes de ubicación y escala). En otras palabras, nos gustaría que nuestra representación de ignorancia para los dos parámetros sea invariable a cambios arbitrarios en la escala de medición de las variables.

Para la derivación anterior, hemos usado un uniforme incorrecto antes en el parámetro de variación logarítmica. Es posible obtener el mismo resultado en un sentido limitante, usando un previo apropiado para la escala logarítmica que tiende a la uniformidad, y encontrando el previo apropiado para la varianza que corresponde a esto, y luego tomando el límite para obtener el presente varianza inadecuada previa. Esto es realmente solo un reflejo del hecho de que los antecedentes impropios generalmente pueden interpretarse como límites de los antecedentes apropiados.

Hay muchas otras justificaciones posibles para este previo impropio, y estas apelan a la teoría de representar la "ignorancia" previa. Existe una gran literatura sobre este tema, pero se puede encontrar una discusión más corta en Irony y Singpurwalla (1997) (discusión con José Bernardo) que habla sobre los diversos métodos por los cuales tratamos de representar la "ignorancia". El previo inadecuado con el que está tratando aquí es la versión limitante del previo conjugado para el modelo normal, con la varianza previa para cada parámetro llevada al infinito.

Ben - Restablece a Monica
fuente