La entropía cruzada es idéntica a la divergencia KL más la entropía de la distribución objetivo. KL es igual a cero cuando las dos distribuciones son iguales, lo que me parece más intuitivo que la entropía de la distribución objetivo, que es lo que es la entropía cruzada en una coincidencia. No...