Asintóticamente, minimizar el AIC es equivalente a minimizar el MSE de validación cruzada de dejar uno fuera para los datos de sección transversal [ 1 ]. Entonces, cuando tenemos AIC, ¿por qué uno usa el método de dividir los datos en conjuntos de capacitación, validación y prueba para medir las propiedades predictivas de los modelos? ¿Cuáles son específicamente los beneficios de esta práctica?
Puedo pensar en una razón: si uno quiere evaluar el desempeño predictivo de los modelos, el análisis fuera de la muestra es útil. Pero aunque el AIC no es una medida de la precisión del pronóstico , generalmente se tiene una buena idea si algún modelo está alcanzando su máximo potencial (para los datos que se proporcionan) en términos de qué tan bien podrá predecir.
fuente
Respuestas:
En la práctica, siempre uso validación cruzada o una simple división de prueba de tren en lugar de AIC (o BIC). No estoy muy familiarizado con la teoría detrás de AIC, pero dos preocupaciones principales me llevan a preferir estimaciones más directas de precisión predictiva:
El número en sí mismo no le dice mucho sobre la precisión de un modelo. AIC puede proporcionar evidencia sobre cuál de varios modelos es el más preciso, pero no le dice qué tan exacto es el modelo en unidades del DV. Casi siempre estoy interesado en estimaciones concretas de precisión de este tipo, porque me dice cuán útil es un modelo en términos absolutos, y también cuánto más preciso es que un modelo de comparación.
AIC, como BIC, necesita para cada modelo un recuento de parámetros o algún otro valor que mida la complejidad del modelo. No está claro qué debe hacer para esto en el caso de métodos predictivos menos tradicionales como la clasificación del vecino más cercano, los bosques aleatorios o el nuevo método de conjunto que garabateó en una servilleta de cóctel a mediados del mes pasado. Por el contrario, se pueden producir estimaciones de precisión para cualquier modelo predictivo, y de la misma manera.
fuente