He leído que la representación distributiva se basa en la hipótesis distributiva de que las palabras que aparecen en un contexto similar tienden a tener significados similares.
Word2Vec y Doc2Vec están modelados de acuerdo con esta hipótesis. Pero, en el documento original, incluso se titulan como Distributed representation of words and phrasesy Distributed representation of sentences and documents. Entonces, ¿estos algoritmos se basan en la representación distribucional o la representación distribuida?
¿Qué tal otros modelos como LDA y LSA?

maleroyalfemaleroyalTurian, Joseph, Lev Ratinov y Yoshua Bengio. " Representaciones de palabras: un método simple y general para el aprendizaje semi-supervisado ". Actas de la 48ª reunión anual de la asociación de lingüística computacional. Association for Computational Linguistics, 2010. define las representaciones distribucionales y las representaciones distribuidas de la siguiente manera:
FYI: ¿Cuál es la diferencia entre vectores de palabras, representaciones de palabras e incrustaciones de vectores?
fuente
Distributional: Tiene una matriz de tamaño WxC y luego se reduce a Wxd, donde d es el tamaño del vector de incrustación. Utiliza tamaños de ventana para determinar el contexto.Distributed: Vectores densos de baja dimensión. Conserva características latentes (propiedades semánticas) en esas dimensiones.La respuesta de Andrey Kutuzov a través de grupos de Google se sintió satisfactoria
fuente