¿Alguien puede explicar el algoritmo de propagación hacia atrás? [duplicar]

Respuestas:

14

El algoritmo de propagación hacia atrás es un algoritmo de descenso de gradiente para ajustar un modelo de red neuronal. (como lo mencionó @Dikran) Permítanme explicar cómo.

Formalmente: el uso del cálculo del gradiente al final de esta publicación dentro de la ecuación [1] a continuación (que es una definición del descenso del gradiente) proporciona el algoritmo de propagación hacia atrás como un caso particular del uso de un descenso del gradiente.

Un modelo de red neuronal Formalmente, arreglamos ideas con un modelo simple de una sola capa:

donde g : RR y es : R MR M son conocidos por todos m = 1 ... , M , s ( x ) [ m ] = σ ( x [ m ] ) , y

f(x)=g(A1(s(A2(x))))
g:RRs:RMRMm=1,Ms(x)[m]=σ(x[m]) , A 2 R pR M son funciones afines desconocidas. La función σ : RR se llama función de activación en el marco de clasificación.A1:RMRA2RpRMσ:RR

Se toma una función de pérdida cuadrática para arreglar ideas. Por lo tanto, los vectores de entrada de R p pueden ajustarse a la salida real ( y 1 , ... , y n ) de R (podrían ser vectores) minimizando la pérdida empírica: R n ( A 1 , A 2 ) = n i = 1 ( y i - f ( x(x1,,xn)Rp(y1,,yn)R con respecto a la elección de A 1 y A 2 .

Rn(A1,A2)=i=1n(yif(xi))2[1]
A1A2

R

al+1=alγlR(al), l0.
(γl)lRal=(Al1,Al2)

R1RRA12RRA2zi=A1(s(A2(xi)))

1R[1:M]=2×i=1nzig(zi)(yif(xi))
m=1,,M
2R[1:p,m]=2×i=1nxig(zi)zi[m]σ(A2(xi)[m])(yif(xi))

x[a:b]xab

robin girard
fuente
11

La retropropagación es una forma de calcular la derivada de la función de error con respecto a los pesos, de modo que el modelo pueda ser entrenado mediante métodos de optimización de descenso de gradiente: es básicamente la aplicación de la "regla de la cadena". Realmente no hay mucho más que eso, así que si te sientes cómodo con el cálculo, esa es básicamente la mejor manera de verlo.

Si no se siente cómodo con el cálculo, una mejor manera sería decir que sabemos cuán mal están las unidades de salida porque tenemos una salida deseada con la que comparar la salida real. Sin embargo, no tenemos una salida deseada para las unidades ocultas, entonces, ¿qué hacemos? La regla de propagación hacia atrás es básicamente una forma de echar la culpa del error de las unidades de salida a las unidades ocultas. Cuanta más influencia tenga una unidad oculta en una unidad de salida en particular, más culpa tiene el error. La culpa total asociada con una unidad oculta da una indicación de cuánto deben cambiar los pesos de la capa de entrada a oculta. Las dos cosas que rigen la cantidad de culpa que se devuelve es el peso que conecta los pesos de la capa oculta y de salida (obviamente) y la salida de la unidad oculta (si grita en lugar de susurrar, es probable que tenga una mayor influencia). El resto son solo las sutilezas matemáticas que convierten esa intuición en la derivada del criterio de entrenamiento.

¡También recomendaría el libro de los obispos para una respuesta adecuada! ; o)

Dikran Marsupial
fuente
2

Es un algoritmo para entrenar redes neuronales multicapa de alimentación hacia adelante (perceptrones multicapa). Hay varios applets de Java agradables en la web que ilustran lo que está sucediendo, como este: http://neuron.eng.wayne.edu/bpFunctionApprox/bpFunctionApprox.html . Además, el libro de Bishop sobre NN es la referencia estándar de escritorio para cualquier cosa que tenga que ver con NN.

Stephen Turner
fuente
Al tratar de construir un repositorio permanente de información estadística de alta calidad en forma de preguntas y respuestas, tratamos de evitar respuestas de solo enlace . Si puede, ¿podría ampliar esto, quizás dando un resumen de la información en el enlace?
Glen_b: reinstala a Monica el