Recientemente, he estado estudiando autoencoders. Si entendí correctamente, un autoencoder es una red neuronal donde la capa de entrada es idéntica a la capa de salida. Entonces, la red neuronal intenta predecir la salida utilizando la entrada como estándar dorado.
¿Cuál es la utilidad de este modelo? ¿Cuáles son los beneficios de tratar de reconstruir algunos elementos de salida, haciéndolos lo más iguales posible a los elementos de entrada? ¿Por qué debería uno usar toda esta maquinaria para llegar al mismo punto de partida?
También puede modelar su población para que cuando ingrese un nuevo vector, pueda verificar cuán diferente es la salida de la entrada. Si son "bastante" iguales, puede suponer que la entrada coincide con la población. Si son "bastante" diferentes, entonces la entrada probablemente no pertenezca a la población que modeló.
Lo veo como una especie de "regresión por redes neuronales" donde intentas tener una función que describa tus datos: su salida es la misma que la entrada.
fuente
Tal vez estas imágenes te den algo de intuición. Como comentador anterior, los codificadores automáticos intentan extraer algunas características de alto nivel de los ejemplos de entrenamiento. Puede ver cómo se utiliza el algoritmo de pronóstico para entrenar cada nivel oculto por separado para el NN profundo en la segunda imagen.
Las imágenes están tomadas de la wikipedia rusa.
fuente