He estado tratando de crear un programa para entrenar redes neuronales en mi computadora. Para la red en cuestión, he decidido usar la función Error de entropía cruzada:
Dónde es la salida objetivo para la neurona y es la salida de esa neurona, intentando predecir .
Quiero saber que es para alguna neurona . Mi intuición (más mi conocimiento limitado del cálculo) me lleva a creer que este valor debería ser.
Sin embargo, esto no parece ser correcto. Cross Entropy se usa a menudo en tándem con la función softmax, de modo que
donde z es el conjunto de entradas a todas las neuronas en la capa softmax ( ver aquí ).
De este archivo , deduzco que:
De acuerdo con esta pregunta :
Pero esto está en conflicto con mi conjetura anterior de . ¿Por qué?
en contradicción directa con mi solución anterior de
Entonces, ¿cuál (si alguna) solución para es correcto y por qué?
machine-learning
neural-networks
derivative
cross-entropy
differential-equations
Geno Racklin Asher
fuente
fuente