En primer lugar, me di cuenta de que si necesito realizar predicciones binarias, tengo que crear al menos dos clases a través de una codificación en caliente. ¿Es esto correcto? Sin embargo, ¿es la entropía cruzada binaria solo para predicciones con una sola clase? Si tuviera que usar una pérdida de entropía cruzada categórica que normalmente se encuentra en la mayoría de las bibliotecas (como TensorFlow), ¿habría una diferencia significativa?
De hecho, ¿cuáles son las diferencias exactas entre una entropía cruzada categórica y binaria? Nunca he visto una implementación de entropía cruzada binaria en TensorFlow, así que pensé que quizás la categórica funciona igual de bien.
Respuestas:
La pérdida de entropía cruzada binomial es un caso especial de pérdida de entropía cruzada multinomial para .m = 2
Donde indexa muestras / observaciones y indexa clases, es la etiqueta de muestra (binario para LSH, vector de un solo hot en el RHS) y es la predicción para una muestra.yo j y pagsyo j∈ ( 0 , 1 ) : ∑jpagsyo j= 1 ∀ i , j
fuente
La entropía cruzada binaria es para clasificaciones de etiquetas múltiples, mientras que la entropía cruzada categórica es para clasificación de clases múltiples donde cada ejemplo pertenece a una sola clase.
fuente
Creo que hay tres tipos de tareas de clasificación:
De estos, podemos decir
¡Quiero enfatizar que la clasificación multi-clase no es similar a la clasificación multi-etiqueta ! ¡Más bien, el clasificador de etiquetas múltiples toma prestada una idea del clasificador binario!
fuente