Una opción interesante sería explorar la reducción de la dimensionalidad basada en los nervios. El tipo más comúnmente utilizado de red para la reducción de dimensionalidad, la autoencoder, puede ser entrenado a costa de , donde i representa el iteraciones de entrenamiento (es una hiper-parámetro independiente de los datos de entrenamiento). Por lo tanto, la complejidad del entrenamiento se simplifica a O ( n ) .O (i⋅n)yoO (n)
Puede comenzar por echar un vistazo al trabajo del seminario de 2006 de Hinton y Salakhutdinov [1]. Desde entonces, las cosas han evolucionado mucho. Ahora, la mayoría de la atención se logra mediante Autoencoders Variacionales [2], pero la idea básica (una red que reconstruye la entrada en su capa de salida con una capa de cuello de botella en el medio) sigue siendo la misma. Tenga en cuenta que, a diferencia de PCA y RP, los codificadores automáticos realizan una reducción de dimensionalidad no lineal. Además, a diferencia de t-SNE, los codificadores automáticos pueden transformar muestras invisibles sin la necesidad de volver a entrenar todo el modelo.
En el aspecto práctico, recomiendo echar un vistazo a esta publicación , que brinda detalles sobre cómo implementar diferentes tipos de codificadores automáticos con la maravillosa biblioteca Keras.
[1] Hinton, GE y Salakhutdinov, RR (2006). Reducción de la dimensionalidad de los datos con redes neuronales. ciencia, 313 (5786), 504-507.
[2] Kingma, DP y Welling, M. (2013). Bayes variacionales de codificación automática. preimpresión de arXiv arXiv: 1312.6114.
Un poco de búsqueda en Google le dará algunos resultados muy recientes, en particular para conjuntos de datos dispersos.
[1] Proyección aleatoria en reducción de dimensionalidad: aplicaciones a datos de imagen y texto .
fuente