Me gustaría utilizar una red neuronal para predecir series de tiempo financieras. Vengo de un entorno de TI y tengo algunos conocimientos de redes neuronales y he estado leyendo sobre estos:
He estado buscando paquetes R para ellos y solo encontré uno para RNN, el paquete RSNNS que tiene implementaciones elman y jordan que son RNN.
Entonces, ¿son útiles las redes neuronales recurrentes para usar con series de tiempo (financieras)? Dado que (cita del enlace de Wikipedia en RNN citado anteriormente):
En cada paso de tiempo, la entrada se propaga de forma estándar y luego se aplica una regla de aprendizaje. Las conexiones posteriores fijas dan como resultado que las unidades de contexto siempre mantengan una copia de los valores anteriores de las unidades ocultas (ya que se propagan sobre las conexiones antes de que se aplique la regla de aprendizaje). Por lo tanto, la red puede mantener una especie de estado, lo que le permite realizar tareas como la predicción de secuencia que están más allá del poder de un perceptrón multicapa estándar.
¿No son en la práctica lo mismo que las redes neuronales de retardo de tiempo? Si no, ¿cuáles son las diferencias con las redes neuronales de retardo de tiempo? ¿Ambos son adecuados para usar con series temporales o cuál es más adecuado?
¡Gracias de antemano!
fuente
TDNNs es una forma simple de representar un mapeo entre valores pasados y presentes. Los retrasos en el TDNN permanecen constantes durante todo el procedimiento de entrenamiento y se estiman antes mediante el uso de prueba y error junto con algunas heurísticas. Sin embargo, puede ocurrir que estos retrasos fijos no capturen las ubicaciones temporales reales de las dependencias de tiempo. Por otro lado, la característica de "memoria" de las estructuras RNN puede capturar esta información al aprender estas dependencias. El problema con los RNN es que no son prácticos de usar cuando se entrenan con técnicas tradicionales (por ejemplo, Backpropagation a través del tiempo) para aprender dependencias a largo plazo. Este problema surge de la llamada "desaparición / explosión" gradiente, lo que básicamente significa que a medida que propagamos las señales de error hacia atrás a través de la estructura de las redes, tienden a desaparecer o explotar. Las estructuras recurrentes más avanzadas (por ejemplo, LSTM) tienen propiedades que mitigan este problema y pueden aprender dependencias a largo plazo y son particularmente adecuadas para aprender datos secuenciales.
fuente