Una limitación de los algoritmos de red neuronal estándar (como backprop) es que debe tomar una decisión de diseño de cuántas capas ocultas y neuronas por capa desea. Por lo general, la tasa de aprendizaje y la generalización son muy sensibles a estas elecciones. Esta ha sido la razón por la cual los algoritmos de redes neuronales como la correlación en cascada han generado interés. Comienza con una topología mínima (solo unidades de entrada y salida) y recluta nuevas unidades ocultas a medida que avanza el aprendizaje.
Fahlman introdujo el algoritmo CC-NN en 1990 y la versión recurrente en 1991. ¿Cuáles son algunos algoritmos de redes neuronales más recientes (posteriores a 1992) que comienzan con una topología mínima?
Preguntas relacionadas
CogSci.SE: redes neuronales con explicaciones biológicamente plausibles de neurogénesis
fuente
Respuestas:
La pregunta implícita aquí es cómo puede determinar la topología / estructura de una red neuronal o un modelo de aprendizaje automático para que el modelo sea "del tamaño correcto" y no se ajuste demasiado o no se ajuste demasiado.
Desde la correlación en cascada en 1990, ha habido una gran cantidad de métodos para hacerlo ahora, muchos de ellos con propiedades estadísticas o computacionales mucho mejores:
fuente
¿Qué hay de NeuroEvolution of Augmenting Topologies (NEAT) http://www.cs.ucf.edu/~kstanley/neat.html
Parece funcionar para problemas simples, pero es INCREÍBLEMENTE lento para converger.
fuente
Según tengo entendido, la parte superior del arte de hoy es "Aprendizaje de funciones sin supervisión y aprendizaje profundo". en pocas palabras: la red se está entrenando de manera no supervisada, cada capa a la vez:
fuente
Ya se ha mencionado NEAT (Evolución neuronal con topologías aumentadas). Hay avances en esto incluyendo especiación e HyperNEAT. HyperNEAT utiliza una red 'meta' para optimizar la ponderación de un fenotipo completamente conectado. Esto le da a la red una 'conciencia espacial' que es invaluable en el reconocimiento de imágenes y los problemas de tipo juego de mesa. Tampoco estás limitado a 2D. Lo estoy usando en 1D para el análisis de señal y es posible en 2D hacia arriba, pero se vuelve pesado en el requisito de procesamiento. Busque los documentos de Ken Stanley, y hay un grupo en Yahoo. Si tiene un problema que se puede solucionar con una red, entonces NEAT y / o HyperNEAT pueden ser aplicables.
fuente
Hay un artículo algo reciente sobre este tema: RP Adams, H. Wallach y Zoubin Ghahramani. Aprender la estructura de modelos gráficos muy dispersos. Esto está un poco fuera de la comunidad habitual de redes neuronales y más en el lado del aprendizaje automático. El documento utiliza inferencia bayesiana no paramétrica en la estructura de la red.
fuente