Es precisión = 1- tasa de error de prueba

14

Disculpas si esta es una pregunta muy obvia, pero he estado leyendo varias publicaciones y parece que no puedo encontrar una buena confirmación. En el caso de la clasificación, ¿la precisión de un clasificador es = 1- tasa de error de prueba ? Obtengo que la precisión es , pero mi pregunta es cómo se relacionan exactamente la precisión y la tasa de error de prueba. TPAG+TnortePAG+norte

micro_gnómica
fuente

Respuestas:

5

En principio, sí, la precisión es la fracción de casos pronosticados adecuadamente, por lo tanto, 1-la fracción de casos mal clasificados, es decir, error (tasa). Sin embargo, ambos términos se pueden usar a veces de una manera más vaga, y cubren diferentes cosas como error / precisión equilibrados en clase o incluso puntaje F o AUROC; siempre es mejor buscar / incluir una aclaración adecuada en el documento o reporte.

También tenga en cuenta que la tasa de error de prueba implica un error en un conjunto de prueba, por lo que es probable que sea una precisión del conjunto de 1 prueba, y puede haber otras precisiones volando.


fuente
Sí, creo que ese es el problema que estaba teniendo es que los términos se usan vagamente, y usted señala que debe informarse en el contexto de su análisis. ¡Gracias por aclararlo!
micro_gnomics
2

@mbq respondió:

"1-la fracción de casos mal clasificados, eso es error (tasa)"

Sin embargo, parece incorrecto ya que la clasificación errónea y el error son lo mismo. Ver a continuación (de http://www.dataschool.io/simple-guide-to-confusion-matrix-terminology/ ):

Precisión: en general, ¿con qué frecuencia es correcto el clasificador? (TP + TN) / total = (100 + 50) / 165 = 0,91

Tasa de clasificación errónea: En general, ¿con qué frecuencia está mal? (FP + FN) / total = (10 + 5) / 165 = 0.09 equivalente a 1 menos Precisión

también conocido como "Tasa de error"

Israel Kloss
fuente