Un enfoque típico para resolver un problema de clasificación es identificar una clase de modelos candidatos y luego realizar la selección del modelo utilizando algún procedimiento como la validación cruzada. Por lo general, uno selecciona el modelo con la mayor precisión o alguna función relacionada que codifica información específica del problema, como .
Suponiendo que el objetivo final es producir un clasificador preciso (donde la definición de precisión es nuevamente, depende del problema), en qué situaciones es mejor realizar la selección del modelo utilizando una regla de puntuación adecuada en lugar de algo incorrecto, como precisión, precisión, recuperación ¿etc? Además, ignoremos los problemas de complejidad del modelo y asumamos a priori que consideramos todos los modelos igualmente probables.
Anteriormente hubiera dicho nunca. Sabemos, en un sentido formal, que la clasificación es un problema más fácil que la regresión [1], [2] y podemos derivar límites más estrictos para el primero que para el posterior ( ). Además, hay casos en los que intentar hacer coincidir con precisión las probabilidades puede dar como resultado límites de decisión incorrectos o sobreajuste . Sin embargo, en base a la conversación aquí y al patrón de votación de la comunidad con respecto a estos temas, he estado cuestionando esta opinión.
- Devroye, Luc. Una teoría probabilística del reconocimiento de patrones. Vol. 31. springer, 1996., Sección 6.7
- Kearns, Michael J. y Robert E. Schapire. Aprendizaje eficiente sin distribución de conceptos probabilísticos. Fundamentos de Ciencias de la Computación, 1990. Actas., 31º Simposio Anual sobre. IEEE, 1990.
S = { ( x 1 , y 1 ) , ... , ( x n , y n ) } x i ∈ X y i ∈ { 1 , ... , K } Esta afirmación puede ser un poco descuidada. Me refiero específicamente a que los datos etiquetados dados de la forma con e , parece ser más fácil estimar un límite de decisión que estimar con precisión las probabilidades condicionales.