¿Cuáles son los valores correctos para precisión y recuperación en casos extremos?

20

La precisión se define como:

p = true positives / (true positives + false positives)

¿Es cierto que, como true positivesy false positivesenfoque 0, la precisión se aproxima a 1?

La misma pregunta para recordar:

r = true positives / (true positives + false negatives)

Actualmente estoy implementando una prueba estadística en la que necesito calcular estos valores, y a veces sucede que el denominador es 0, y me pregunto qué valor devolver para este caso.

PD: Disculpen la etiqueta apropiada, que quería utilizar recall, precisiony limit, pero no puede crear nuevas etiquetas.

Björn Pollex
fuente
No creo que necesitemos etiqueta de límite.
Presumiblemente está intentando cuantificar el rendimiento de algún procedimiento de diagnóstico; ¿Hay alguna razón por la que no esté utilizando una métrica de teoría de detección de señal adecuada como d ', A' o área bajo la curva ROC?
Mike Lawrence
3
@Mike, precisión y recuperación son métricas de evaluación comunes en, por ejemplo, la recuperación de información donde ROC, o en particular la especificidad es difícil de usar porque ya espera una gran cantidad de falsos positivos.
user979

Respuestas:

17

Dada una matriz de confusión:

            predicted
            (+)   (-)
            ---------
       (+) | TP | FN |
actual      ---------
       (-) | FP | TN |
            ---------

lo sabemos:

Precision = TP / (TP + FP)
Recall = TP / (TP + FN)

Consideremos los casos donde el denominador es cero:

  • TP + FN = 0: significa que no hubo casos positivos en los datos de entrada
  • TP + FP = 0: significa que todas las instancias se predijeron como negativas
Amro
fuente
99
Extender su respuesta: Si TP = 0 (como en ambos casos), la recuperación es 1, ya que el método no ha descubierto ninguno de los verdaderos positivos; la precisión es 0 si hay FP y 1 de lo contrario.
11

La respuesta es sí. Los casos de borde indefinidos ocurren cuando los verdaderos positivos (TP) son 0 ya que esto está en el denominador de ambos P y R. En este caso,

  • Recall = 1 cuando FN = 0, ya que se descubrió el 100% del TP
  • Precisión = 1 cuando FP = 0, ya que no no hubo resultados espurios

Esta es una reformulación del comentario de @ mbq.

John Lehmann
fuente
3

Estoy familiarizado con diferentes terminologías. Lo que usted llama precisión, valor predictivo positivo (PPV). Y lo que llamas recordar llamaría sensibilidad (Sens). :

http://en.wikipedia.org/wiki/Receiver_operating_characteristic

En el caso de la sensibilidad (recuperación), si el denominador es cero (como señala Amro), NO hay casos positivos, por lo que la clasificación no tiene sentido. (Eso no impide que TP o FN sean cero, lo que daría como resultado una sensibilidad limitante de 1 o 0. Estos puntos están respectivamente en las esquinas superior derecha e inferior izquierda de la curva ROC - TPR = 1 y TPR = 0. )

Sin embargo, el límite de PPV es significativo. Es posible que el límite de prueba se establezca tan alto (o bajo) que todos los casos se predigan como negativos. Esto está en el origen de la curva ROC. El valor límite del PPV justo antes de que el límite alcance el origen puede estimarse considerando el segmento final de la curva ROC justo antes del origen. (Esto puede ser mejor modelar ya que las curvas ROC son notoriamente ruidosas).

Por ejemplo, si hay 100 positivos reales y 100 negativos reales y el segmento final de la curva ROC se aproxima desde TPR = 0.08, FPR = 0.02, entonces el PPV limitante sería PPR ~ 0.08 * 100 / (0.08 * 100 + 0.02 * 100 ) = 8/10 = 0.8 es decir, 80% de probabilidad de ser un verdadero positivo.

En la práctica, cada muestra está representada por un segmento en la curva ROC: horizontal para un negativo real y vertical para un positivo real. Se podría estimar el PPV limitante por el último segmento antes del origen, pero eso daría un PPV limitante estimado de 1, 0 o 0,5, dependiendo de si la última muestra fue un verdadero positivo, un falso positivo (negativo real) o hecho de igual TP y FP. Un enfoque de modelado sería mejor, tal vez suponiendo que los datos sean binormales, una suposición común, por ejemplo: http://mdm.sagepub.com/content/8/3/197.short

Tilacoleo
fuente
1

Eso dependería de lo que quiere decir con "enfoque 0". Si los falsos positivos y los falsos negativos se acercan a cero a un ritmo más rápido que los verdaderos positivos, entonces sí a ambas preguntas. Pero por lo demás, no necesariamente.

Rob Hyndman
fuente
Realmente no sé la tasa. Para ser honesto, todo lo que sé es que mi programa se bloqueó con una división por cero y que necesito manejar ese caso de alguna manera.
Björn Pollex