Estoy buscando ejemplos de cómo interpretar las estimaciones de AIC (criterio de información de Akaike) y BIC (criterio de información bayesiano).
¿Se puede interpretar la diferencia negativa entre BIC como las probabilidades posteriores de un modelo sobre el otro? ¿Cómo puedo poner esto en palabras? Por ejemplo, el BIC = -2 puede implicar que las probabilidades del mejor modelo sobre el otro modelo son aproximadamente ?
Cualquier consejo básico es apreciado por este neófito.
interpretation
aic
bic
Juan
fuente
fuente
Respuestas:
para el modelo i de unconjunto de modelos apriorise puede llamar a Δ i = A I C i - m i n A I C donde el mejor modelo del conjunto de modelos tendrá Δ = 0 . Podemos usar losvalores de Δ i para estimar la fuerza de la evidencia ( w i ) para todos los modelos en el conjunto de modelos donde: w i = e ( - 0.5 Δ i )Un yodo yo Δyo= A Idoyo- m i n A Ido Δ =0 Δi wi
Esto es a menudo referido como el "peso de la evidencia" para el modeloidado ela priorimodelo conjunto. A medida queΔiaumenta,widisminuye, lo que sugiere que el modeloies menos plausible. Estosvaloreswipueden interpretarse como la probabilidad de que el modeloisea el mejor modelo dado elconjunto de modelos apriori. También podríamos calcular la probabilidad relativa del modeloiversus el modelojcomo
Tenga en cuenta que cuando el modelo 1 es el mejor modelo (el más pequeño A I C ). Burnham y Anderson (2002) denominan esto como la razón de evidencia. Esta tabla muestra cómo cambia la relación de evidencia con respecto al mejor modelo.w1/w2=e0.5Δ2 AIC
Referencia
Burnham, KP y DR Anderson. 2002. Selección de modelos e inferencia multimodelo: un enfoque práctico teórico de la información. Segunda edicion. Springer, Nueva York, Estados Unidos.
Anderson, DR 2008. Inferencia basada en modelos en las ciencias de la vida: una introducción a la evidencia. Springer, Nueva York, Estados Unidos.
fuente
No creo que haya una interpretación simple de AIC o BIC como esa. Ambas son cantidades que toman la probabilidad logarítmica y le aplican una penalización por la cantidad de parámetros que se estiman. Akaike explica las sanciones específicas para AIC en sus documentos a partir de 1974. BIC fue seleccionado por Gideon Schwarz en su artículo de 1978 y está motivado por un argumento bayesiano.
fuente
Probablemente use el BIC como resultado de la aproximación al factor Bayes. Por lo tanto, no considera (más o menos) una distribución previa. BIC en una etapa de selección de modelo es útil cuando compara los modelos. Para comprender completamente BIC, el factor Bayes, recomiendo leer un artículo (sección 4): http://www.stat.washington.edu/raftery/Research/PDF/socmeth1995.pdf para complementar el conocimiento con: http: // www .stat.washington.edu / raftery / Research / PDF / kass1995.pdf
fuente