Un paralelo entre LSA y pLSA

9

En el documento original de pLSA, el autor, Thomas Hoffman, establece un paralelismo entre las estructuras de datos de pLSA y LSA que me gustaría discutir con usted.

Antecedentes:

Inspirándose en la recuperación de información, supongamos que tenemos una colección de documentos y un vocabulario de términosN

D={d1,d2,....,dN}
M
Ω={ω1,ω2,...,ωM}

Un corpus puede ser representado por una matriz de cooccurenciasXN×M

En el análisis semántico latente por SVD, la matriz se factoriza en tres matrices: donde y son los valores singulares de y es el rango de .X

X=UΣVT
Σ=diag{σ1,...,σs}σiXsX

La aproximación LSA de se calcula truncando las tres matrices a algún nivel , como se muestra en la imagen:X = U Σ ^ V T k < sX

X^=U^Σ^VT^
k<s

ingrese la descripción de la imagen aquí

En pLSA, elija un conjunto fijo de temas (variables latentes) la aproximación de se calcula como: donde las tres matrices son las que maximizan la probabilidad del modelo.X X = [ P ( d i | z k ) ] × [ d i a g ( P ( z k ) ] × [ P ( f j | z k ) ] TZ={z1,z2,...,zZ}X

X=[P(di|zk)]×[diag(P(zk)]×[P(fj|zk)]T

Pregunta real:

El autor afirma que estas relaciones subsisten:

  • U=[P(di|zk)]
  • Σ^=[diag(P(zk)]
  • V=[P(fj|zk)]

y que la diferencia crucial entre LSA y pLSA es la función objetivo utilizada para determinar la descomposición / aproximación óptima.

No estoy seguro de que tenga razón, ya que creo que las dos matrices representan conceptos diferentes: en LSA es una aproximación del número de veces que aparece un término en un documento, y en pLSA es el (estimado ) probabilidad de que aparezca un término en el documento.X^

¿Me pueden ayudar a aclarar este punto?

Además, supongamos que hemos calculado los dos modelos en un corpus, dado un nuevo documento , en LSA que uso para calcular su aproximación como: d

d^=d×V×VT
  1. ¿Es esto siempre válido?
  2. ¿Por qué no obtengo resultados significativos aplicando el mismo procedimiento a pLSA?
    d^=d×[P(fj|zk)]×[P(fj|zk)]T

Gracias.

Aslan986
fuente

Respuestas:

12

Para simplificar, estoy dando aquí la conexión entre LSA y la factorización de matriz no negativa (NMF), y luego muestro cómo una simple modificación de la función de costo conduce a pLSA. Como se indicó anteriormente, LSA y pLSA son métodos de factorización en el sentido de que, hasta la normalización de las filas y columnas, la descomposición de bajo rango de la matriz de términos del documento:

X=UΣD

usando anotaciones anteriores. Más simplemente, el término matriz del documento se puede escribir como un producto de dos matrices:

X=ABT

donde y . Para LSA, la correspondencia con la fórmula anterior se obtiene estableciendo y . B M × s A = U AN×sBM×s B=VA=UΣB=VΣ

Una manera fácil de entender la diferencia entre LSA y NMF es usar su interpretación geométrica:

  • LSA es la solución de:

    minA,BXABTF2,
  • NMF- es la solución de: minL2

    minA0,B0XABTF2,
  • NMF-KL es equivalente a pLSA y es la solución de:

    minA0,B0KL(X||ABT).

donde es la Kullback-Leibler divergencia entre matrices e . Es fácil ver que todos los problemas anteriores no tienen una solución única, ya que uno puede multiplicar por un número positivo y dividir XYABAp(zk|di)XBp(fj|zk)AAp(di|zk)KL(X||Y)=ijxijlogxijyijXYABpor el mismo número para obtener el mismo valor objetivo. Por lo tanto, en el caso de LSA, las personas generalmente eligen una base ortogonal ordenada por valores propios decrecientes. Esto viene dado por la descomposición SVD e identifica la solución LSA, pero cualquier otra opción sería posible ya que no tiene impacto en la mayoría de las operaciones (similitud de coseno, fórmula de suavizado mencionada anteriormente, etc.). - en el caso de NMF, no es posible una descomposición ortogonal, pero las filas de generalmente están limitadas a sumarse a una, porque tiene una interpretación probabilística directa como . Si además, las filas de están normalizadas (es decir, suma a una), entonces las filas de tienen que sumar a una, lo que lleva a la interpretación probabilísticaAp(zk|di)XBp(fj|zk) . Hay una ligera diferencia con la versión de pLSA dada en la pregunta anterior porque las columnas de están obligadas a sumar una, de modo que los valores en son , pero la diferencia es solo un cambio de parametrización , el problema sigue siendo el mismo.AAp(di|zk)

Ahora, para responder la pregunta inicial, hay algo sutil en la diferencia entre LSA y pLSA (y otros algoritmos NMF): las restricciones de no negatividad inducen un "efecto de agrupamiento" que no es válido en el caso clásico de LSA porque el valor singular La solución de descomposición es rotacionalmente invariante. Las restricciones de no negatividad de alguna manera rompen esta invariancia rotacional y dan factores con algún tipo de significado semántico (temas en el análisis de texto). El primer artículo para explicarlo es:

Donoho, David L. y Victoria C. Stodden. "¿Cuándo la factorización de matriz no negativa da una descomposición correcta en partes?" Avances en los sistemas de procesamiento de información neuronal 16: actas de la conferencia de 2003. MIT Press, 2004. [enlace]

De lo contrario, la relación entre PLSA y NMF se describe aquí:

Ding, Chris, Tao Li y Wei Peng. "Sobre la equivalencia entre la factorización matricial no negativa y la indexación semántica latente probabilística". Estadística computacional y análisis de datos 52.8 (2008): 3913-3927. [enlace]

Guillaume
fuente