Bueno, si buscas "algún indicador" ...
La distribución de Wishart (a escala) (inversa) se usa a menudo porque se conjuga con la función de probabilidad multivariante y, por lo tanto, simplifica el muestreo de Gibbs.
En Stan , que utiliza el muestreo hamiltoniano de Montecarlo, no hay restricciones para los antecedentes multivariados. El enfoque recomendado es la estrategia de separación sugerida por Barnard, McCulloch y Meng :
Σ = diag_matrix ( σ)Ωdiag_matrix ( σ)
dónde
σ es un vector de desarrolladores estándar y
Ω Es una matriz de correlación.
Los componentes de σse puede dar cualquier previo razonable. En cuanto aΩ, el previo recomendado es
Ω ∼ LKJcorr ( ν)
donde "LKJ" significa
Lewandowski, Kurowicka y Joe . Como
ν aumenta, lo anterior se concentra cada vez más alrededor de la matriz de correlación de unidades, en
ν= 1La distribución de correlación LKJ se reduce a la distribución de identidad sobre las matrices de correlación. Por lo tanto, el LKJ anterior puede usarse para controlar la cantidad esperada de correlación entre los parámetros.
Sin embargo, no he probado (todavía) distribuciones no normales de efectos aleatorios, así que espero no haber perdido el punto ;-)
Yo personalmente uso las propuestas de Wishart. Por ejemplo, si quiero una propuestaΣ∗ alrededor Σ , Yo suelo:
Σ∗∼ W( Σ / a , a ) ,
dónde una es un gran número, como 1000. Con ese truco obtendrás mi[Σ∗] = Σ y puedes ajustar la varianza con una . Si no me equivoco, la proporción de propuestas para( p × p ) matrices tiene una forma cerrada:
q( Σ →Σ∗)q(Σ∗→ Σ )=(El |Σ∗El |El | Σ |)a - ( p - 1 ) / 2⋅mi[ t r (Σ∗- 1Σ ) - t r (Σ- 1Σ∗) ] ⋅ a / 2
fuente
Es bien sabido que si usa distribuciones no gaussianas, la conjugación del modelo se pierde, vea:
http://www.utstat.toronto.edu/wordpress/WSFiles/technicalreports/0610.pdf
Luego, debe usar otros métodos MCMC, como Metropolis dentro del muestreo de Gibbs o alguna versión adaptativa del mismo. Afortunadamente, hay un paquete R para hacerlo:
http://cran.r-project.org/web/packages/spBayes/index.html
La tasa de aceptación recomendada es 0.44 pero, por supuesto, hay algunas suposiciones detrás de este número, de manera similar al caso de 0.234.
¿Eres EL Dimitris Rizopoulos?
fuente
Se puede usar cualquier propuesta si define su log-posterior correctamente. Solo necesita usar algunos trucos para implementarlo y definir adecuadamente el soporte de su parte posterior, consulte:
¿Cómo encontrar el soporte de la distribución posterior para aplicar el algoritmo MCMC de Metropolis-Hastings?
Hay toneladas de ejemplos en los que una propuesta gaussiana puede usarse para posteriores truncados. Esto es solo un truco de implementación. Nuevamente, está haciendo una pregunta sin una solución general. Algunas propuestas incluso tienen un rendimiento diferente para el mismo modelo y diferentes conjuntos de datos.
Buena suerte.
fuente