En MNIST For ML Beginners definen la entropía cruzada como Hy′(y):=−∑iy′ilog(yi)Hy′(y):=−∑iyi′log(yi)H_{y'} (y) := - \sum_{i} y_{i}' \log (y_i) yiyiy_i es el valor de probabilidad pronosticado para la clase e es la probabilidad real para esa clase.y ′ iiiiy′iyi′y_i' Pregunta 1 ¿No es un...