Si conocieras el Teorema del almuerzo sin almuerzo (Wolpert & Macready), no te quedarías tan obsesionado con un clasificador y te preguntarías por qué no es el mejor. El teorema de la NFL establece esencialmente que "en el universo de todas las funciones de costos, no existe un mejor clasificador". Segundo, el rendimiento del clasificador siempre "depende de los datos".
El teorema del patito feo (Watanabe) afirma esencialmente que "en el universo de todos los conjuntos de características, no hay un mejor conjunto de características".
El teorema de Cover establece que si , es decir, la dimensionalidad de los datos es mayor que el tamaño de la muestra, entonces un problema de clasificación binaria siempre es linealmente separable.p>n
A la luz de lo anterior, así como de la Navaja de Occam , nunca hay nada mejor que cualquier otra cosa, independientemente de la función de datos y costos.
Siempre he argumentado que las CNN por sí mismas no son conjuntos de clasificadores para los que se puede evaluar la diversidad (kappa vs error).