¿Cuál es la derivada de la función de activación ReLU definida como:
¿Qué pasa con el caso especial donde hay una discontinuidad en la función en ?
self-study
neural-networks
Tom Hale
fuente
fuente
tf.nn.relu()