Preguntas etiquetadas con accuracy

La precisión de un estimador es el grado de cercanía de las estimaciones al valor verdadero. Para un clasificador, la precisión es la proporción de clasificaciones correctas. (Este segundo uso no es una buena práctica. Consulte la etiqueta wiki para obtener un enlace a más información).

25
¿Un modelo sobreajustado es necesariamente inútil?

Suponga que un modelo tiene una precisión del 100% en los datos de entrenamiento, pero una precisión del 70% en los datos de la prueba. ¿Es cierto el siguiente argumento sobre este modelo? Es obvio que este es un modelo sobreajustado. La precisión de la prueba se puede mejorar reduciendo el...

24
F1 / Dice-Score vs IoU

Estaba confundido acerca de las diferencias entre el puntaje F1, el puntaje Dice y el IoU (intersección sobre unión). Por ahora descubrí que F1 y Dice significan lo mismo (¿verdad?) Y IoU tiene una fórmula muy similar a las otras dos. F1 / Dados: 2 TPAGS2 TPAGS+ FPAGS+

16
Precisión versus área bajo la curva ROC

Construí una curva ROC para un sistema de diagnóstico. El área bajo la curva se estimó entonces no paramétricamente como AUC = 0,89. Cuando intenté calcular la precisión en el umbral óptimo (el punto más cercano al punto (0, 1)), ¡obtuve la precisión del sistema de diagnóstico de 0,8, que es menor...

15
Buena precisión a pesar del alto valor de pérdida

Durante el entrenamiento de un clasificador binario de red neuronal simple obtengo un alto valor de pérdida, usando entropía cruzada. A pesar de esto, el valor de precisión en el conjunto de validación es bastante bueno. ¿Tiene algún significado? ¿No hay una correlación estricta entre pérdida y...

14
Es precisión = 1- tasa de error de prueba

Disculpas si esta es una pregunta muy obvia, pero he estado leyendo varias publicaciones y parece que no puedo encontrar una buena confirmación. En el caso de la clasificación, ¿la precisión de un clasificador es = 1- tasa de error de prueba ? Obtengo que la precisión es , pero mi pregunta es cómo...