Estoy de acuerdo en que esto es demasiado amplio, pero aquí hay una respuesta de 1 oración para la mayoría de ellos. Los que dejé fuera (desde la parte inferior de la tabla) son muy modernos y muy especializados. No sé mucho sobre ellos, así que quizás alguien que sí pueda mejorar esta respuesta.
- Perceptrón: regresión lineal o logística (y, por lo tanto, clasificación).
- Avance: generalmente regresión no lineal o clasificación con activación sigmoidea. Esencialmente un perceptrón multicapa.
- Red de base radial: red de alimentación directa con funciones de activación de base radial. Se utiliza para la clasificación y algunos tipos de filtrado de video / audio
- Avance profundo: avance con más de 1 capa oculta. Se usa para aprender patrones más complejos en clasificación o regresión, tal vez aprendizaje de refuerzo.
- Red neuronal recurrente: una red de avance profundo donde algunos nodos se conectan a capas pasadas . Se utiliza en el aprendizaje por refuerzo y para aprender patrones en datos secuenciales como texto o audio.
- LSTM: una red neuronal recurrente con neuronas de control especializadas (a veces llamadas compuertas) que permiten que las señales sean recordadas por períodos más largos u olvidadas selectivamente. Utilizado en cualquier aplicación RNN, y a menudo capaz de aprender secuencias que tienen un tiempo de repetición muy largo.
- GRU: Al igual que LSTM, otro tipo de RNN cerrado con neuronas de control especializadas.
- Codificador automático: aprende a comprimir datos y luego descomprimirlos. Después de aprender este modelo, se puede dividir en dos subpartes útiles: un mapeo desde el espacio de entrada a un espacio de características de baja dimensión, que puede ser más fácil de interpretar o comprender; y un mapeo desde un subespacio dimensional pequeño de números simples en patrones complejos, que se pueden utilizar para generar esos patrones complejos. Base de mucho trabajo moderno en visión, lenguaje y procesamiento de audio.
- VAE, DAE, SAE: Especializaciones del codificador automático.
- Cadena de Markov: una representación de la red neuronal de una cadena de Markov: el estado está codificado en el conjunto de neuronas que están activas, y las probabilidades de transición están definidas por los pesos. Se utiliza para aprender las probabilidades de transición y el aprendizaje de funciones sin supervisión para otras aplicaciones.
- HN, BM, RBM, DBM: arquitecturas especializadas basadas en la idea de la cadena de Markov, utilizadas para aprender automáticamente características útiles para otras aplicaciones.
Red convolucional profunda: como una red de retroalimentación, pero cada nodo es realmente un banco de nodos que aprenden una convolución de la capa anterior. Esto esencialmente le permite aprender filtros, detectores de bordes y otros patrones de interés en el procesamiento de video y audio.
Red deconvolucional profunda: opuesta a una red convolucional en algún sentido. Aprenda una asignación de características que representan bordes u otras propiedades de alto nivel de alguna imagen invisible, de vuelta al espacio de píxeles. Generar imágenes a partir de resúmenes.
DCIGN: Esencialmente un codificador automático hecho de un DCN y un DN pegados. Se usa para aprender modelos generativos para imágenes complejas como caras.
Red Adversaria Generativa: Se utiliza para aprender modelos generativos para imágenes complejas (u otros tipos de datos) cuando no hay suficientes datos de capacitación disponibles para una DCIGN. Un modelo aprende a generar datos a partir de ruido aleatorio, y el otro aprende a clasificar la salida de la primera red como distinta de los datos de entrenamiento disponibles.