Estoy leyendo el siguiente blog sobre la red neuronal LSTM: http://machinelearningmastery.com/understanding-stateful-lstm-recurrent-neural-networks-python-keras/
El autor da nueva forma al vector de entrada X como [muestras, pasos de tiempo, características] para diferentes configuraciones de LSTM.
El autor escribe
De hecho, las secuencias de letras son pasos de tiempo de una característica en lugar de un paso de tiempo de características separadas. Hemos dado más contexto a la red, pero no más secuencia como se esperaba
¿Qué significa esto?
fuente
t-n,..., t-2, t-1
para predecirt
.Es un poco tarde pero por si acaso;
Una muestra puede referirse a ejemplos de capacitación individual. Una variable "batch_size" es, por tanto, el recuento de muestras que envió a la red neuronal. Es decir, cuántos ejemplos diferentes alimentas a la vez a la red neuronal.
TimeSteps son señales de tiempo. Es cuánto tiempo dura cada una de sus muestras. Por ejemplo, una muestra puede contener pasos de 128 veces, donde cada paso de tiempo podría ser una trigésima de segundo para el procesamiento de la señal. En el procesamiento del lenguaje natural (PNL), un paso de tiempo puede estar asociado con un carácter, una palabra o una oración, dependiendo de la configuración.
Las características son simplemente el número de dimensiones que alimentamos en cada paso de tiempo. Por ejemplo, en PNL, una palabra podría estar representada por 300 características usando word2vec. En el caso del procesamiento de señales, imaginemos que su señal es 3D. Es decir, tiene una señal X, Y y Z, como las medidas de un acelerómetro en cada eje. Esto significa que tendría 3 características enviadas en cada paso de tiempo para cada muestra.
Por Guillaume
fuente
Mi respuesta con un ejemplo: ["hola, esto es xyz", "cómo estás", "gran hombre ..."]
en este caso "[muestras, pasos de tiempo, características]" significa:
fuente