Para dos distribuciones discretas y , la entropía cruzada se define comopppqqq H(p,q)=−∑xp(x)logq(x).H(p,q)=−∑xp(x)logq(x).H(p,q)=-\sum_x p(x)\log q(x). Me pregunto por qué esto sería una medida intuitiva de la distancia entre dos distribuciones de probabilidad. Veo que es la entropía de , que...