Para la detección, una forma común de determinar si la propuesta de un objeto era correcta es Intersección sobre Unión (IoU, IU). Esto toma el conjunto de píxeles de objetos propuestos y el conjunto de píxeles verdaderos de objetos B y calcula:
Comúnmente, IoU> 0.5 significa que fue un éxito, de lo contrario fue un fracaso. Para cada clase, uno puede calcular el
- Verdadero Positivo ( ): se hizo una propuesta para la clase c y en realidad había un objeto de la clase c
- Falso positivo ( ): se hizo una propuesta para la clase c , pero no hay ningún objeto de la clase c
- Precisión promedio para la clase : # T P ( c )
El mAP (precisión media promedio) =
Si se desean mejores propuestas, se aumenta el IoU de 0.5 a un valor más alto (hasta 1.0, lo cual sería perfecto). Se puede denotar esto con mAP @ p, donde es la IoU.
Pero, ¿qué significa mAP@[.5:.95]
(como se encuentra en este documento )?
computer-vision
Martin Thoma
fuente
fuente
[.5:.95]
parte se refiere a un rango de valores de IoU, pero no sabría cómo se evalúa ese rango en un solo mAP.Respuestas:
mAP@[.5:.95]
(alguien designadomAP@[.5,.95]
) significa mAP promedio sobre diferentes umbrales de IoU, de 0.5 a 0.95, paso 0.05 (0.5, 0.55, 0.6, 0.65, 0.7, 0.75, 0.8, 0.85, 0.9, 0.95).Por cierto, el código fuente de coco muestra exactamente lo que
mAP@[.5:.95]
está haciendo:self.iouThrs = np.linspace(.5, 0.95, np.round((0.95 - .5) / .05) + 1, endpoint=True)
Referencias
https://github.com/pdollar/coco
http://mscoco.org/
https://www.cs.cornell.edu/~sbell/pdf/cvpr2016-ion-bell.pdf
https://arxiv.org/pdf/1506.01497.pdf
https://arxiv.org/pdf/1611.10012.pdf
fuente
fuente
AP se promedia en todas las categorías. Tradicionalmente, esto se llama "precisión media promedio" (mAP). No hacemos distinción entre AP y mAP (e igualmente AR y mAR) y suponemos que la diferencia es clara por el contexto.
http://cocodataset.org/#detections-eval
fuente