¿Qué es una explicación intuitiva de Echo State Networks?

17

Soy nuevo en las redes neuronales recurrentes (RNN) y sigo aprendiendo los conceptos. Entiendo en un nivel abstracto que una Red de estado de eco (ESN) puede (re) producir una secuencia de entradas, es decir, una señal, incluso después de que la entrada se haya eliminado. Sin embargo, el artículo de Scholarpedia me pareció demasiado difícil de entender y comprender por completo.

¿Alguien puede explicar cómo funciona el aprendizaje matemáticamente en la forma más simple posible?

tejaskhot
fuente

Respuestas:

17

Una Red de Echo State es una instancia del concepto más general de Reservoir Computing . La idea básica detrás del ESN es obtener los beneficios de un RNN (procesar una secuencia de entradas que dependen unas de otras, es decir, dependencias del tiempo como una señal) pero sin los problemas de entrenar a un RNN tradicional como el problema del gradiente de fuga .

Los ESN logran esto al tener un depósito relativamente grande de neuronas escasamente conectadas que utilizan una función de transferencia sigmoidal (en relación con el tamaño de entrada, algo así como 100-1000 unidades). Las conexiones en el depósito se asignan una vez y son completamente aleatorias; los pesos del reservorio no se entrenan. Las neuronas de entrada están conectadas al reservorio y alimentan las activaciones de entrada al reservorio; a estos también se les asignan pesos aleatorios no entrenados. Los únicos pesos que se entrenan son los pesos de salida que conectan el reservorio con las neuronas de salida.

En el entrenamiento, las entradas se enviarán al depósito y se aplicará una salida del maestro a las unidades de salida. Los estados del yacimiento se capturan con el tiempo y se almacenan. Una vez que se han aplicado todas las entradas de entrenamiento, se puede usar una aplicación simple de regresión lineal entre los estados del yacimiento capturado y las salidas objetivo. Estos pesos de salida pueden incorporarse a la red existente y usarse para entradas novedosas.

La idea es que las escasas conexiones aleatorias en el depósito permiten que los estados anteriores "repitan" incluso después de que hayan pasado, de modo que si la red recibe una entrada nueva que es similar a algo en lo que se entrenó, la dinámica en el depósito comenzará a siga la trayectoria de activación apropiada para la entrada y de esa manera puede proporcionar una señal coincidente con lo que entrenó, y si está bien entrenado podrá generalizar a partir de lo que ya ha visto, siguiendo trayectorias de activación que tendrían sentido dada la señal de entrada que impulsa el depósito.

La ventaja de este enfoque está en el procedimiento de entrenamiento increíblemente simple, ya que la mayoría de los pesos se asignan solo una vez y al azar. Sin embargo, pueden capturar dinámicas complejas con el tiempo y pueden modelar propiedades de sistemas dinámicos. Con mucho, los documentos más útiles que he encontrado en ESN son:

Ambos tienen explicaciones fáciles de entender junto con el formalismo y consejos sobresalientes para crear una implementación con orientación para elegir los valores de parámetros apropiados.

ACTUALIZACIÓN: El libro de Aprendizaje profundo de Goodfellow, Bengio y Courville tiene una discusión de alto nivel un poco más detallada pero aún agradable de Echo State Networks. La Sección 10.7 discute el problema de gradiente de desaparición (y explosión) y las dificultades de aprender dependencias a largo plazo. La Sección 10.8 trata sobre las Redes de Echo State. Específicamente entra en detalles sobre por qué es crucial seleccionar pesos de yacimientos que tengan un valor de radio espectral apropiado : funciona junto con las unidades de activación no lineales para fomentar la estabilidad mientras se propaga la información a través del tiempo.

adamconkey
fuente
1

El aprendizaje en un ESN no se ve obligado principalmente a adaptar los pesos, más respectivamente, la capa de salida aprende qué salida producir para el estado actual que tiene la red. El estado interno se basa en la dinámica de la red y se denomina estado dinámico del depósito. Para comprender cómo se forman los estados del reservorio, debemos observar la topología de un ESN.

Topología ESN

Las unidades de entrada están conectadas a las neuronas en las unidades internas (unidades de depósito), los pesos se inicializan aleatoriamente. Las unidades de depósito están conectadas aleatoriamente y escasamente y también tienen pesos aleatorios. La unidad de salida también está conectada a todas las unidades de depósito, por lo tanto, recibe el estado del depósito y produce una salida correspondiente.

tt

Antes de que podamos explicar en detalle cómo funciona la capacitación, debemos explicar y definir algunas cosas:

TtWFsi

Definiciones variables:

  • r
  • o
  • t
  • o
  • Tto

Finalmente, ¿cómo funciona la capacitación en detalle?

  • tMETROtr
  • WotutMETROWotut=T->Wotut=METROT-1

Como el aprendizaje es muy rápido, podemos probar muchas topologías de red para obtener una que se ajuste bien.

Para medir el rendimiento de un ESN:

  • WFsi
  • El |El |METROWotut-TEl |El |2

Radio espectral y ESN

Spec-tral1

maníaco
fuente