¿Cuál es la derivada de la función de activación ReLU?

15

¿Cuál es la derivada de la función de activación ReLU definida como:

ReLU(x)=max(0,x)

¿Qué pasa con el caso especial donde hay una discontinuidad en la función en ?x=0

Tom Hale
fuente

Respuestas:

17

La derivada es:

f(x)={0if x<01if x>0

Y sin definir en .x=0

La razón por la que no está definida en es que sus derivadas izquierda y derecha no son iguales.x=0

Jim
fuente
1
Entonces, en la práctica (implementación), ¿uno solo elige o para el caso ? 1 x = 001x=0
Tom Hale
2
La convención es que drdx = 1 (x> 0)
neuroguy123
@TomHale ¿por qué no usar ? La implementación práctica es otra cuestión y merece una nueva pregunta. Esto es solo la matemática. f(0)=12
Jim
3
@TomHale por cierto, vea la respuesta de Nouroz Rahman en quora.com/… : "[...] En mi opinión, en las funciones de biblioteca incorporadas (por ejemplo tf.nn.relu()
Jim