He leído que la representación distributiva se basa en la hipótesis distributiva de que las palabras que aparecen en un contexto similar tienden a tener significados similares.
Word2Vec y Doc2Vec están modelados de acuerdo con esta hipótesis. Pero, en el documento original, incluso se titulan como Distributed representation of words and phrases
y Distributed representation of sentences and documents
. Entonces, ¿estos algoritmos se basan en la representación distribucional o la representación distribuida?
¿Qué tal otros modelos como LDA y LSA?
male
royal
female
royal
Turian, Joseph, Lev Ratinov y Yoshua Bengio. " Representaciones de palabras: un método simple y general para el aprendizaje semi-supervisado ". Actas de la 48ª reunión anual de la asociación de lingüística computacional. Association for Computational Linguistics, 2010. define las representaciones distribucionales y las representaciones distribuidas de la siguiente manera:
FYI: ¿Cuál es la diferencia entre vectores de palabras, representaciones de palabras e incrustaciones de vectores?
fuente
Distributional
: Tiene una matriz de tamaño WxC y luego se reduce a Wxd, donde d es el tamaño del vector de incrustación. Utiliza tamaños de ventana para determinar el contexto.Distributed
: Vectores densos de baja dimensión. Conserva características latentes (propiedades semánticas) en esas dimensiones.La respuesta de Andrey Kutuzov a través de grupos de Google se sintió satisfactoria
fuente