Hasta donde yo sé, tanto los autoencoders como el t-SNE se usan para la reducción de dimensionalidad no lineal. ¿Cuáles son las diferencias entre ellos y por qué debería usar uno versus otro?
12
Hasta donde yo sé, tanto los autoencoders como el t-SNE se usan para la reducción de dimensionalidad no lineal. ¿Cuáles son las diferencias entre ellos y por qué debería usar uno versus otro?
Ambos intentan encontrar una incrustación de menor dimensión de sus datos. Sin embargo, hay diferentes problemas de minimización. Más específicamente, un autoencoder intenta minimizar el error de reconstrucción, mientras que t-SNE intenta encontrar un espacio dimensional más bajo y, al mismo tiempo, intenta preservar las distancias del vecindario. Como resultado de este atributo, t-SNE generalmente se prefiere para trazados y visualizaciones.
De "Aprender una incrustación paramétrica preservando la estructura local", Laurens van der Maaten ( https://lvdmaaten.github.io/publications/papers/AISTATS_2009.pdf )
fuente
Autoencoder y t-SNE se pueden usar juntos para una mejor visualización en datos de alta dimensión, como se describe en [1]:
[1] https://blog.keras.io/building-autoencoders-in-keras.html
fuente
Autoencoder está diseñado para preservar datos anteriores en un sentido de 2 normas, lo que puede considerarse como preservar la energía cinética de los datos, si los datos son velocidad.
Mientras que t-SNE, use la divergencia KL que no es simétrica, conducirá a que t-SNE se centre más en la estructura local, mientras que el autoencoder tiende a mantener pequeño el error general de L2, lo que es en un sentido global.
fuente