Precisión equilibrada vs puntaje F-1

14

Me preguntaba si alguien podría explicar la diferencia entre la precisión equilibrada que es

b_acc = (sensitivity + specificity)/2

y puntaje f1 que es:

f1 = 2*precision*recall/(precision + recall) 
dvreed77
fuente

Respuestas:

19

Matemáticamente, b_acc es la media aritmética de recordar_P y recordar_N y f1 es la media armónica de recordar_P y precisión_P.

Tanto F1 como b_acc son métricas para la evaluación del clasificador, que (en cierta medida) manejan el desequilibrio de clase. Dependiendo de cuál de las dos clases (N o P) supera en número a la otra, cada métrica supera a la otra.

1) Si N >> P, f1 es mejor.

2) Si P >> N, b_acc es mejor.

Claramente, si puede cambiar de etiqueta, ambas métricas se pueden usar en cualquiera de los dos casos de desequilibrio anteriores. De lo contrario, dependiendo del desequilibrio en los datos de entrenamiento, puede seleccionar la métrica adecuada.

Shashwat
fuente
1
Gracias señor, ¿tiene una referencia para la información sobre la elección de Fscore vs precisión equilibrada en términos de número de clases positivas / negativas?
Ginebra el
Me gustaría secundar la solicitud de @ gin para obtener más información sobre cómo elegir entre los dos. Tengo algunos datos que indican que el N es aproximadamente del 8%. Por la respuesta anterior, parece que debería usar la precisión equilibrada. He estado buscando otras referencias sobre esta opción (P> N -> b_acc) pero no he visto nada.
anguyen1210
Esto no tiene ningún sentido para mí. La precisión equilibrada es invariante bajo el cambio de etiqueta. ¿Cómo puede "mejorarlo" cambiando la etiqueta si no se modifica?
TC Proctor