Me pregunto cómo interpretar una arquitectura recurrente en un contexto EEG. Específicamente, estoy pensando en esto como una CNN recurrente (a diferencia de arquitecturas como LSTM), pero tal vez también se aplique a otros tipos de redes recurrentes
Cuando leo sobre R-CNN, generalmente se explican en contextos de clasificación de imágenes. Normalmente se describen como "aprendizaje en el tiempo" o "incluido el efecto del tiempo-1 en la entrada actual"
Esta interpretación / explicación se vuelve realmente confusa cuando se trabaja con datos EEG. Aquí se puede encontrar un ejemplo de un R-CNN que se usa en datos EEG
Imagina que tengo ejemplos de entrenamiento que consisten en una matriz 1x512. Este conjunto captura una lectura de voltaje para 1 electrodo en 512 puntos de tiempo consecutivos. Si uso esto como entrada para un CNN recurrente (usando convoluciones 1D), la parte recurrente del modelo no está capturando el "tiempo", ¿verdad? (como estaría implícito en las descripciones / explicaciones discutidas anteriormente) Porque en este contexto el tiempo ya está capturado por la segunda dimensión de la matriz
Entonces, con una configuración como esta, ¿qué nos permite en realidad la parte recurrente de la red para modelar que una CNN normal no puede (si no es el tiempo)?
Me parece que recurrente solo significa hacer una convolución, agregar el resultado a la entrada original y volver a convolucionar. Esto se repite para x número de pasos recurrentes. ¿Qué ventaja ofrece realmente este proceso?
Respuestas:
La parte recurrente de una red le permite, en términos generales, modelar dependencias a largo y corto plazo. Entonces su modelo puede tener algún sentido de estado.
Esto suele ser ventajoso si está utilizando series de tiempo. Por ejemplo, si tiene datos de un monitor de frecuencia cardíaca y desea clasificar entre reposo, estrés y recuperación. Si su punto de datos dice que su frecuencia cardíaca está en 130, depende de si se está recuperando de altas cargas o de otra cosa.
Editar: Olvidé tu segunda pregunta.
Podría pensar en algunas respuestas posibles. Al enredar la parte recurrente, la estás filtrando. Entonces obtienes una señal más limpia y los errores no se acumularán tanto. Vanilla rnn sufre de la explosión de gradientes que desaparecen, por lo que este podría ser su enfoque para superarlo. Además, está incorporando sus características dentro de la rcnn, lo que puede conducir, como él dijo, a más caminos para explotar. Lo que lo hace menos propenso al sobreajuste, por lo tanto, más generalizable.
fuente
fuente
Recuerde que las CNN son detectores de características. La salida de una capa convolucional es una matriz que señala dónde se detectó cierta característica.
Por lo tanto, los CNN recurrentes son redes neuronales recurrentes que aprenden secuencias de características, donde esas características también se aprenden durante el entrenamiento.
fuente