¿Cómo se puede usar el AIC o BIC en lugar de la división de tren / prueba?

8

Recientemente me he encontrado con varias fuentes "informales" que indican que, en algunas circunstancias, si usamos el AIC o el BIC para entrenar un modelo de serie temporal, no necesitamos dividir los datos en prueba y entrenamiento, podemos usar todos Los datos para el entrenamiento. (Las fuentes incluyen, entre otras, una discusión sobre la publicación del blog de Rob Hyndman en CV , esta presentación de Stanford o la Sección 4 de este texto ).

En particular, parecen indicar que el AIC o BIC se pueden usar cuando el conjunto de datos es demasiado pequeño para permitir una división de tren / prueba.

Comentario de Rob Hyndman, por ejemplo: "Es mucho más eficiente usar AIC / BIC que usar conjuntos de prueba o CV, y se vuelve esencial para series de tiempo cortas donde no hay suficientes datos para hacer lo contrario".

Sin embargo, no puedo encontrar ningún texto o documento que discuta esto en detalle.

Una cosa que me desconcierta especialmente es que el AIC y el BIC tienden asintóticamente a la validación cruzada, lo que significa que, de ser posible, reemplazarían el CV por grandes conjuntos de datos, lo que va en contra de la idea de que sean útiles para pequeños conjuntos de datos.

¿Alguien puede señalarme una discusión formal (capítulos de libros, documentos, tutoriales) de esta idea?

Skander H.
fuente

Respuestas:

4

En el capítulo 5.5 de este libro , discuten cómo surgen muchos de estos criterios de selección de modelos. Comienzan con el criterio FPE de Akaike para los modelos AR, y luego discuten sobre AIC, AICc y BIC. Recorren las derivaciones bastante a fondo.

Lo que tienen en común es que investigan lo que sucede cuando usas algunos datos observados en la muestra. {Xt} para estimar los parámetros del modelo y luego observar alguna función de pérdida (error de predicción cuadrático medio o divergencia de KL) en algunos datos no observados / hipotéticos fuera de la muestra {Yt}que surge del uso del modelo estimado en estos nuevos datos. Las ideas principales son que a) tome la expectativa con respecto a todos los datos, y 2) use algunos resultados asintóticos para obtener expresiones para algunas de las expectativas. La cantidad de (1) le brinda el rendimiento general esperado, pero (2) supone que tiene muchos más datos de los que realmente tiene. No soy un experto, pero supongo que los enfoques de validación cruzada también apuntan a estas medidas de rendimiento; pero en lugar de considerar los datos hipotéticos fuera de la muestra, utilizan datos reales que se separaron de los datos de entrenamiento.

El ejemplo más simple es el criterio FPE. Suponga que estima su modelo AR en todos los datos (algo así como el conjunto de prueba) y obtenga{ϕ^yo}yo. Entonces la pérdida esperada en los datos no observados{Yt} (es hipotético, no se divide como en la validación cruzada) es

mi(Ynorte+1-ϕ^1Ynorte--ϕ^pagsYnorte+1-pags)2=mi(Ynorte+1-ϕ1Ynorte--ϕpagsYnorte+1-pags-(ϕ^1-ϕ1)Ynorte--(ϕ^pags-ϕpags)Ynorte+1-pags)2=mi(Zt+(ϕ^1-ϕ1)Ynorte--(ϕ^pags-ϕpags)Ynorte+1-pags)2=σ2+mi[mi[((ϕ^1-ϕ1)Ynorte--(ϕ^pags-ϕpags)Ynorte+1-pags)2El |{Xt}]]=σ2+mi[yo=1pagsj=1pags(ϕ^yo-ϕyo)(ϕ^j-ϕj)mi[Ynorte+1-yoYnorte+1-jEl |{Xt}]]=σ2+mi[(ϕ^pags-ϕpags)Γpags(ϕ^pags-ϕpags)](error tipográfico en el libro: norte-1/ /2 debiera ser norte1/ /2)σ2(1+pagsnorte)(norteσ^2/ /σ2 aprox. χnorte-pags2)norteσ^2norte-pags(1+pagsnorte)=σ^2norte+pagsnorte-pags.

No conozco ningún artículo fuera de mi cabeza que compare empíricamente el rendimiento de estos criterios con las técnicas de validación cruzada. Sin embargo, este libro ofrece muchos recursos sobre cómo FPE, AIC, AICc y BIC se comparan entre sí.

Taylor
fuente