Recientemente vi esta charla de Eric J. Ma y revisé su entrada de blog , donde cita a Radford Neal, que los modelos bayesianos no se sobreajustan (pero pueden sobreajustar ) y cuando los usamos , no necesitamos conjuntos de prueba para validarlos (para Me parece que las citas hablan más bien sobre el uso del conjunto de validación para ajustar los parámetros). Honestamente, los argumentos no me convencen y no tengo acceso al libro, entonces, ¿podría dar un argumento más detallado y riguroso a favor o en contra de dicha declaración?
Por cierto, mientras tanto, Eric Ma me ha señalado esta discusión sobre el mismo tema.
Respuestas:
Si utilizamos "el único modelo verdadero" y "antecedentes verdaderos" que reflejan cierta información previa capturada adecuadamente, entonces, hasta donde yo sé, un bayesiano realmente no tiene un problema de sobreajuste y la distribución predictiva posterior dada muy poca información será adecuadamente incierta . Sin embargo, si utilizamos algún tipo de modelo pragmáticamente elegido (es decir, hemos decidido que, por ejemplo, la tasa de riesgo es constante en el tiempo y un modelo exponencial es apropiado o, por ejemplo, que alguna covariable no está en el modelo = punto anterior del coeficiente cero) con alguna valores predeterminados no informativos o de regularización, entonces realmente no sabemos si esto todavía se aplica. En ese caso, la elección de (hiper) anteriores tiene cierta arbitrariedad que puede o no dar lugar a buenas predicciones fuera de la muestra.
Por lo tanto, es muy razonable hacer la pregunta de si la elección del hiperparámetro (= parámetros de los hiperpriors) en combinación con la probabilidad elegida funcionará bien. De hecho, podría decidir fácilmente que es una buena idea ajustar sus hiperparámetros para obtener el rendimiento de predicción deseado. Desde esa perspectiva, un conjunto de validación (o validación cruzada) para ajustar los hiperparámetros y el conjunto de prueba para confirmar el rendimiento tiene mucho sentido.
Creo que esto está estrechamente relacionado con una serie de discusiones de Andrew Gelman en su blog (ver, por ejemplo, la entrada 1 del blog , la entrada 2 del blog , la entrada 3 del blog en LOO para Stan y las discusiones sobre las comprobaciones predictivas posteriores), donde discute sus preocupaciones sobre el (en cierto sentido correcto) afirma que un Bayesiano no debe verificar si su modelo tiene sentido y sobre la evaluación práctica del modelo Bayesiano.
Por supuesto, a menudo somos los más interesados en usar métodos bayesianos en entornos, donde hay poca información previa y queremos usar antecedentes un tanto informativos. En ese punto, puede ser algo complicado tener suficientes datos para llegar a cualquier lugar con validación y evaluación en un conjunto de pruebas.
fuente
Así que respondí la pregunta sobre sobreajuste a la que hace referencia y vi el video y leí la publicación del blog. Radford Neal no dice que los modelos bayesianos no se sobreajusten. Recordemos que el sobreajuste es el fenómeno del ruido que se trata como señal y se incorpora a la estimación del parámetro. Esa no es la única fuente de error de selección de modelo. Sin embargo, la discusión de Neal es más amplia al aventurarse en la idea de un tamaño de muestra pequeño que él se aventuró en la discusión del sobreajuste.
Permítanme revisar parcialmente mi publicación anterior de que los modelos bayesianos pueden ajustarse a todos los modelos bayesianos, pero hacerlo de una manera que mejore la predicción. Nuevamente, volviendo a la definición de señal confusa con ruido, la incertidumbre en los métodos bayesianos, la distribución posterior, es la cuantificación de esa incertidumbre en cuanto a qué es señal y qué es ruido. Al hacerlo, los métodos bayesianos están incorporando el ruido en las estimaciones de la señal, ya que todo el posterior se usa en inferencia y predicción. El sobreajuste y otras fuentes de error de clasificación del modelo es un tipo diferente de problema en los métodos bayesianos.
Para simplificar, adoptemos la estructura de la charla de Ma y centrémonos en la regresión lineal y evitemos la discusión de aprendizaje profundo porque, como él señala, los métodos alternativos que menciona son solo composiciones de funciones y existe un vínculo directo entre la lógica de la linealidad. regresión y aprendizaje profundo.
Para dar un ejemplo del mundo real, probé 78 modelos de bancarrota. De los 78 modelos, la probabilidad posterior combinada de 76 de ellos era aproximadamente una diezmilésima del uno por ciento. Los otros dos modelos fueron aproximadamente 54 por ciento y 46 por ciento, respectivamente. Afortunadamente, tampoco compartieron ninguna variable. Eso me permitió seleccionar ambos modelos e ignorar los otros 76. Cuando tuve todos los puntos de datos para ambos, promedié sus predicciones basadas en las probabilidades posteriores de los dos modelos, usando solo un modelo cuando me faltaban puntos de datos que excluían otro. Si bien tenía un conjunto de entrenamiento y un conjunto de validación, no fue por la misma razón que un Frequentist los tendría. Además, al final de cada día durante dos ciclos comerciales, actualicé mis posteriores con los datos de cada día. Eso significaba que mi modelo al final del conjunto de validación no era el modelo al final del conjunto de entrenamiento. Los modelos bayesianos no dejan de aprender, mientras que los modelos frequentistas sí.
Los modelos son parámetros en el pensamiento bayesiano y, como tales, son aleatorios o, si lo prefiere, inciertos. Esa incertidumbre no termina durante el proceso de validación. Se actualiza continuamente.
Debido a las diferencias entre los métodos bayesianos y frecuentes, hay otros tipos de casos que también deben considerarse. El primero proviene de la inferencia de parámetros, el segundo de las predicciones formales. No son lo mismo en los métodos bayesianos. Los métodos bayesianos separan formalmente la inferencia y la toma de decisiones. También separan la estimación y predicción de parámetros.
Si no hay información previa importante y si se utilizan densidades predictivas frecuentas en lugar de estimaciones puntuales, para una muestra fija los resultados de los métodos bayesiano y frecuenta serán idénticos si se elige un solo modelo. Si hay información previa, entonces el método bayesiano tenderá a generar predicciones más precisas. Esta diferencia puede ser muy grande en la práctica. Además, si hay un promedio del modelo, es muy probable que el método bayesiano sea más robusto. Si usa la selección de modelo y congela las predicciones bayesianas, entonces no hay diferencia en usar un modelo Frequentista usando predicciones Frequentistas.
Utilicé un conjunto de prueba y validación porque mis datos no eran intercambiables. Como resultado, necesitaba resolver dos problemas. El primero es similar al quemado en los métodos MCMC. Necesitaba un buen conjunto de estimaciones de parámetros para comenzar mi secuencia de prueba, por lo que utilicé cincuenta años de datos anteriores para obtener una buena densidad previa para comenzar mi prueba de validación. El segundo problema era que necesitaba algún tipo de período estandarizado para realizar la prueba para que la prueba no fuera cuestionada. Usé los dos ciclos comerciales anteriores según la fecha del NBER.
fuente