Después de entrenar vectores de palabras con word2vec, ¿es mejor normalizarlos antes de usarlos para algunas aplicaciones posteriores? Es decir, ¿cuáles son los pros / contras de normalizarlos?
natural-language
word2vec
word-embeddings
Franck Dernoncourt
fuente
fuente
Respuestas:
Cuando las aplicaciones posteriores solo se preocupan por la dirección de los vectores de palabras (por ejemplo, solo prestan atención a la similitud del coseno de dos palabras), luego se normalizan y se olvidan de la longitud.
Sin embargo, si las aplicaciones posteriores pueden (o necesitan) considerar aspectos más sensibles, como el significado de las palabras o la consistencia en el uso de las palabras (ver más abajo), entonces la normalización podría no ser una buena idea.
De Levy et al., 2015 (y, en realidad, la mayor parte de la literatura sobre incrustaciones de palabras):
También de Wilson y Schakel, 2015 :
La normalización es equivalente a perder la noción de longitud. Es decir, una vez que normaliza los vectores de palabras, olvida la longitud (norma, módulo) que tenían justo después de la fase de entrenamiento.
Sin embargo, a veces vale la pena tener en cuenta la longitud original de los vectores de palabras.
Schakel y Wilson, 2015 observaron algunos datos interesantes sobre la longitud de los vectores de palabras:
fuente