¿Consideraría que HBM vs EB son dos alternativas en las cuales los hiperparámetros están "en el juego" de ser muestreados / estimados / etc.? Claramente hay una conexión entre estos dos.
¿Consideraría que HBM es más "completamente bayesiano" que EB? ¿Hay algún lugar donde pueda ver cuáles son las diferencias entre ser "completamente bayesiano" y las otras alternativas?
Gracias.
bayesian
empirical-bayes
singelton
fuente
fuente
Respuestas:
Diría que HBM es ciertamente "más bayesiano" que EB, ya que marginar es un enfoque más bayesiano que optimizar. Esencialmente me parece que EB ignora la incertidumbre en los hiperparámetros, mientras que HBM intenta incluirlo en el análisis. Sospecho que HMB es una buena idea donde hay pocos datos y, por lo tanto, una incertidumbre significativa en los hiperparámetros, que deben tenerse en cuenta. Por otro lado, para grandes conjuntos de datos, EB se vuelve más atractivo, ya que generalmente es menos costoso computacionalmente y el volumen de datos a menudo significa que los resultados son mucho menos sensibles a la configuración de hiperparámetros.
He trabajado en clasificadores de procesos gaussianos y, a menudo, optimizo los hiperparámetros para maximizar los resultados de probabilidad marginal en un ajuste excesivo del NM y, por lo tanto, una degradación significativa en el rendimiento de generalización. Sospecho que en esos casos, un tratamiento completo de HBM sería más confiable, pero también mucho más costoso.
fuente