Leí en alguna parte que el método Variational Bayes es una generalización del algoritmo EM. De hecho, las partes iterativas de los algoritmos son muy similares. Para probar si el algoritmo EM es una versión especial de Variational Bayes, probé lo siguiente:
son datos, es la colección de variables latentes y son los parámetros. En Variational Bayes podemos hacer una aproximación tal que . Donde s son distribuciones más simples y manejables.
Dado que el algoritmo EM encuentra una estimación puntual MAP, pensé que Bayes Variacionales puede converger a EM si uso una función Delta tal que: . es la primera estimación de los parámetros, como se suele hacer en EM.
Cuando se da, Q 1 X ( X ) que minimiza el KL divergencia se encuentra por la fórmula Q 1 X ( X ) = exp ( E delta Θ 1 [ ln P ( X , Y , Θ ) ] ) La fórmula anterior se simplifica aQ 1 X (X)=P(X|Θ1,Y), este paso resulta ser el ¡equivalente al paso Expectativa del algoritmo EM!
Pero no puedo derivar el paso de Maximización como la continuación de esto. En el siguiente paso necesitamos calcular y de acuerdo con la regla de iteración de Bayes Variacional esto es:
¿Los algoritmos VB y EM están realmente conectados de esta manera? ¿Cómo podemos derivar EM como un caso especial de Bayes Variacionales? ¿Es cierto mi enfoque?
fuente
Respuestas:
Tu enfoque es correcto. EM es equivalente a VB bajo la restricción de que el posterior aproximado paraΘ Θ∗
Por supuesto, si realmente evaluaras la divergencia KL, sería infinito. Pero eso no es un problema si considera que la función delta es un límite.
fuente