¿Por qué hay una E en el algoritmo de nombre EM?

8

Entiendo dónde ocurre el paso E en el algoritmo (como se explica en la sección matemática a continuación). En mi opinión, el ingenio clave del algoritmo es el uso de la desigualdad de Jensen para crear un límite inferior a la probabilidad logarítmica. En ese sentido, tomar Expectationsimplemente se hace para reformular la probabilidad logarítmica para encajar en la desigualdad de Jensen (es decir, para la función cóncava).E(f(x))<f(E(x))

¿Hay alguna razón por la que se llama el E-step? ¿Hay algún significado para lo que estamos esperando (es decir, ? Siento que me falta algo de intuición detrás de por qué la Expectativa es tan central, en lugar de simplemente ser incidental para el uso de la desigualdad de Jensen.p(xi,zi|θ)

EDITAR: Un tutorial dice:

El nombre 'E-step' proviene del hecho de que generalmente no es necesario formar la distribución de probabilidad sobre las terminaciones explícitamente, sino que solo necesita calcular estadísticas suficientes 'esperadas' sobre estas terminaciones.

¿Qué significa "uno no necesita formar la distribución de probabilidad sobre terminaciones explícitamente"? ¿Cómo sería esa distribución de probabilidad?


Apéndice: E-step en el algoritmo EM

ll=ilogp(xi;θ)definition of log likelihood=ilogzip(xi,zi;θ)augment with latent variables z=ilogziQi(zi)p(xi,zi;θ)Qi(zi)Qi is a distribution for zi=ilogEzi[p(xi,zi;θ)Qi(zi)]taking expectations - hence the E in EMEzi[logp(xi,zi;θ)Qi(zi)]Using Jensen's rule for log which is concaveiziQi(zi)logp(xi,zi;θ)Qi(zi)Q function to maximize
Heisenberg
fuente
2
No me queda claro lo que está preguntando, pero siempre he asumido que la relevancia detrás de nombrar el E-step es que, en cierto sentido, está "completando" o "imputando" la faltante tomando la expectativa. De acuerdo, esto no es exactamente lo que está sucediendo porque está tomando que no es lo mismo que enchufar algo para desaparecidozmiθ[Iniciar sesiónpags(X,Z;θ)X=X]Z valores de , pero operacionalmente uno a menudo termina haciendo algo así. Si estuviéramos haciendo aumento de datos, que es similar a EM en muchos aspectos.
chico
Sí, este es el tipo de discusión que quiero tener. Entonces, cuando dices imputar z tomando expectativa ". ¿La expectativa de qué? Además, ¿te refieres a lugar demizmiθ ?
Heisenberg
Mi educación siempre ha sido indexar la con el parámetro que indexa la medida de probabilidad con la que se está tomando la expectativa. En CS lo hacen como sugieres. Estoy integrando , condicionando a contra una medida indexada por .EZXθ
chico
Como ejemplo, cuando se ajustan mezclas gaussianas, el paso E imputa los indicadores de clase que faltan. Pero lo hace de manera difusa calculando las responsabilidades de cada observación.
chico

Respuestas:

11

Las expectativas son fundamentales para el algoritmo EM. Para empezar, la probabilidad asociada con los datos se representa como una expectativa donde la expectativa es en términos de la distribución marginal del vector latente .(X1,...,Xnorte)

pags(X1,...,Xnorte;θ)=Znortepags(X1,...,Xnorte,z1,...,znorte;θ)rez=Znortepags(X1,...,XnorteEl |z1,...,znorte,θ)pags(z1,...,znorte;θ)rez=miθ[pags(X1,...,XnorteEl |z1,...,znorte,θ)]
(z1,...,znorte)

La intuición detrás de EM también se basa en una expectativa. Dado que no se puede optimizar directamente, mientras que puede, pero depende de la ' no observada , la idea es maximizar en su lugar la probabilidad de registro completa esperadaIniciar sesiónpags(X1,...,Xnorte;θ)Iniciar sesiónpags(X1,...,Xnorte,z1,...,znorte;θ)zyo

mi[Iniciar sesiónpags(X1,...,Xnorte,z1,...,znorte;θ)El |X1,...,Xnorte]
excepto que esta expectativa también depende de un valor de , elegido como , por ejemplo, la función para maximizar (en ) en el paso M: θθ0 0θ
Q(θ0 0,θ)=miθ0 0[Iniciar sesiónpags(X1,...,Xnorte,z1,...,znorte;θ)El |X1,...,Xnorte]
La desigualdad de Jensen solo se presenta como justificación del aumento de la probabilidad observada en cada paso M.
Xi'an
fuente
1
Gracias por la explicación. Dado que nuestra distribución posterior para los vectores latentes cambia en cada paso, cambia en cada paso ¿también? Si es así, esta imagen es un poco confusa porque hay una curva roja fija que representa , mientras que "cambia" en cada paso ya que estamos promediando nuestra creencia actual sobre los vectores latentes en ese paso. Eθ[p(x1,,Xnorte,z,...,z,θ)]pags(X;θ)pags(X;θ)z
Heisenberg
lo siento, no entiendo la pregunta: en cada paso EM, el valor de cambia y aumenta. Esto no significa que la función de probabilidad cambie. Eθ[p(x1,,xn|z1,,zn,θ)]
Xi'an
No es ? Si el RHS cambia de acuerdo con nuestra creencia posterior sobre el vector latente, ¿cambia también el LHS? pags(X1,...,Xnorte;θ)=miθ[pags(X1,...,XnorteEl |z1,...,znorte,θ)]
Heisenberg
Esta identidad está en mi respuesta. Ambas partes toman valores diferentes cuando varía. Sin embargo, en esta ecuación no existe una noción de creencia posterior ya que (a) es fija y (b) los 's se consideran marginalmente. θθzyo
Xi'an
1
En cada iteración , el paso E usa para calcular la integralDe ahí la función objetivo para maximizar los cambios en cada iteración . Esto no dice nada sobre la probabilidad objetivo original que solo depende de un único . tpags(zEl |X,θt)
Q(θt,θ)=miθt[Iniciar sesiónpags(X1,...,Xnorte,z1,...,znorte;θ)El |X1,...,Xnorte].
tpags(X1,...,Xnorte;θ)=miθ[pags(X1,...,XnorteEl |z1,...,znorte,θ)]θ
Xi'an
1

La respuesta de Xi'an es muy buena, solo una extensión con respecto a la edición.

El nombre 'E-step' proviene del hecho de que generalmente no es necesario formar la distribución de probabilidad sobre las terminaciones explícitamente, sino que solo necesita calcular estadísticas suficientes 'esperadas' sobre estas terminaciones.

Como no se observa el valor de , estimamos una distribución para cada punto de datos partir de los datos no observados. La función Q es la suma de las probabilidades de registro esperadas sobrezqX(z)XcompletionsqX(z)

Q(θ)=XmiqX[Iniciar sesiónpags(X,zEl |θ)]

Lo mencionado probability distribution over completionsdebe referirse a . Para algunas distribuciones (especialmente la familia exponencial, ya que la probabilidad está en su forma de registro), solo tenemos que conocer la probabilidad esperada (en lugar de la probabilidad esperada) para calcular y maximizar .pags(X,zEl |θ)sufficient statisticsQ(θ)


Hay una muy buena introducción en el Capítulo 19.2 de Modelos Gráficos Probabilísticos.

dontloo
fuente