Un factor Bayes se define en las pruebas bayesianas de hipótesis y en la selección del modelo bayesiano por la razón de dos probabilidades marginales: dada una muestra iid y las respectivas densidades de muestreo y , con los precedentes correspondientes y \ pi_2 , el factor de Bayes para comparar los dos modelos es
\ mathfrak {B} _ {12} (x_1, \ ldots, x_n) \ stackrel {\ text {def}} {= } \ frac {m_1 (x_1, \ ldots, x_n)} {m_2 (x_1, \ ldots, x_n)} \ stackrel {\ text {def}} {=} \ frac {\ int \ prod_ {i = 1} ^ n f_1 (x_i | \ theta) \ pi_1 (\ text {d} \ theta)} {\ int \ prod_ {i = 1} ^ n f_2 (x_i | \ eta) \ pi_2 (\ text {d} \ eta) }
Un libro que estoy revisando actualmente tiene la extraña afirmación de que el factor Bayes anterior( x1, ... , xnorte)F1( x | θ )F2( x | η)π1π2si12( x1, ... , xnorte) =defmetro1( x1, ... , xnorte)metro2( x1, ... , xnorte)=def∫∏nortei = 1F1( xyoEl | θ) π1( d θ )∫∏nortei = 1F2( xyoEl | η) π2( d η)
si12( x1, ... , xnorte) se "forma multiplicando los individuales [factores de Bayes] juntos" (p.118). Esto es formalmente correcto si uno usa la descomposición
si12( x1, ... , xnorte)= m1( x1, ... , xnorte)metro2( x1, ... , xnorte)= m1( xnorteEl | X1, ... , xn - 1)metro2( xnorteEl | X1, ... , xn - 1)× m1( xn - 1El | Xn - 2, ... , x1)metro2( xn - 1El | Xn - 2, ... , x1)× ⋯⋯ × m1( x1)metro2( x1)
pero no veo una ventaja computacional en esta descomposición como la actualización demetro1( xnorteEl | X1, ... , xn - 1)metro2( xnorteEl | X1, ... , xn - 1)
requiere el mismo esfuerzo de cálculo que el cálculo original demetro1( x1, ... , xnorte)metro2( x1, ... , xnorte)
ejemplos de juguetes artificiales externos.
Pregunta: ¿Existe una forma genérica y computacionalmente eficiente de actualizar el factor Bayes desde si12( x1, ... , xnorte) a
si12( x1, ... , xn + 1) que no requiere volver a calcular los márgenes completos metro1( x1, ... , xnorte) y
metro2( x1, ... , xnorte) ?
Mi intuición es que, además de los filtros de partículas, que de hecho proceden a lo largo de la estimación de los factores de Bayes si12( x1, ... , xnorte) una nueva observación a la vez, no hay una forma natural de responder esta pregunta .
Respuestas:
Presumiblemente, el propósito de una ecuación recursiva para el factor Bayes sería cuando ya haya calculado el factor Bayes para puntos de datos, y desee poder actualizar esto con un punto de datos adicional. Parece que es posible hacer esto sin volver a calcular los márgenes del vector de datos anterior, siempre que se conozca la forma de la función posterior . Suponiendo que conocemos la forma de esta función (y suponiendo los datos IID como en su pregunta), la densidad predictiva se puede escribir como:norte πnorte
Por lo tanto, tienes:
Al comparar dos clases de modelos a través del factor Bayes, obtenemos la ecuación recursiva:
Esto todavía implica la integración sobre el rango de parámetros, por lo que estoy de acuerdo con su opinión de que no parece haber ninguna ventaja computacional sobre simplemente volver a calcular el factor de Bayes a través de la fórmula inicial que proporciona. Sin embargo, puede ver que esto no requiere que vuelva a calcular los márgenes para el vector de datos anterior. (En cambio, calculamos las densidades predictivas del nuevo punto de datos condicional a los datos anteriores, bajo cada una de las clases de modelos). Al igual que usted, realmente no veo ninguna ventaja computacional de esto, a menos que ocurra que esta fórmula integral se simplifica fácilmente. En cualquier caso, supongo que le da otra fórmula para actualizar el factor Bayes.
fuente