Preguntas etiquetadas con backpropagation

Úselo para preguntas sobre la retropropagación, que se usa comúnmente en el entrenamiento de redes neuronales junto con un método de optimización como el descenso de gradientes.

62
Backprop a través de Max-Pooling Layers?

Esta es una pequeña pregunta conceptual que me ha estado molestando por un tiempo: ¿Cómo podemos propagarnos a través de una capa de agrupación máxima en una red neuronal? Me encontré con capas de agrupación máxima mientras revisaba este tutorial para la biblioteca nn de Torch 7. La biblioteca...

10
¿Cómo hacer lotes de productos internos en Tensorflow?

Tengo dos tensor a:[batch_size, dim] b:[batch_size, dim]. Quiero hacer un producto interno para cada par en el lote, generando c:[batch_size, 1], dónde c[i,0]=a[i,:].T*b[i,:].

8
Crear red neuronal para la función xor

Es un hecho bien conocido que una red de 1 capa no puede predecir la función xor, ya que no es separable linealmente. Intenté crear una red de 2 capas, utilizando la función sigmoide logística y el backprop, para predecir xor. Mi red tiene 2 neuronas (y un sesgo) en la capa de entrada, 2 neuronas y...

8
Cómo aplicar el gradiente de softmax en backprop

Recientemente hice una tarea donde tuve que aprender un modelo para la clasificación de 10 dígitos del MNIST. El HW tenía un código de andamiaje y se suponía que debía trabajar en el contexto de este código. Mi tarea funciona / pasa las pruebas, pero ahora estoy tratando de hacerlo todo desde cero...

8
Gradientes sintéticos: ¿cuál es el beneficio práctico?

Puedo ver dos motivos para usar degradados sintéticos en RNN: Para acelerar el entrenamiento, corrigiendo inmediatamente cada capa con gradiente predicho Para poder aprender secuencias más largas Veo problemas con los dos. Tenga en cuenta que realmente me gustan los degradados sintéticos...