Estoy viendo la función de costo de entropía cruzada que se encuentra en este tutorial :
¿Qué estamos resumiendo exactamente? Por supuesto, está sobre , pero y no cambian con . Todas las son entradas en el uno . incluso se define en el párrafo anterior a la ecuación en función de la suma de todas las 'sy ' s.
Además, se define como el número de entradas en esta neurona en particular, ¿correcto? Está redactado como "el número total de elementos de datos de entrenamiento" .
Editar:
¿Estoy en lo cierto al pensar que
sería la función de costo para toda la red, mientras que
¿Cuál sería el costo para la neurona individual? ¿No debería estar la suma sobre cada neurona de salida?
fuente
El tutorial es realmente bastante explícito:
La función de costo de neurona única original dada en el tutorial (Ec. 57) también tiene un subíndice debajo de que se supone que sugiere esto. Para el caso de una sola neurona, no hay nada más que resumir además de ejemplos de entrenamiento, ya que ya sumamos todos los pesos de entrada al calcular :x Σ a
Más adelante en el mismo tutorial, Nielsen da una expresión para la función de costo para una red de múltiples capas y neuronas múltiples (Ec. 63):
En este caso, la suma corre sobre los ejemplos de entrenamiento ( 's) y las neuronas individuales en la capa de salida ( ' s).x j
fuente