Como sabe, hay dos tipos populares de validación cruzada, K-fold y submuestreo aleatorio (como se describe en Wikipedia ). Sin embargo, sé que algunos investigadores están haciendo y publicando artículos donde algo que se describe como un CV K-fold es de hecho un submuestreo aleatorio, por lo que en la práctica nunca se sabe lo que realmente está leyendo el artículo.
Por lo general, por supuesto, la diferencia es imperceptible, y esa es mi pregunta: ¿puedes pensar en un ejemplo cuando el resultado de un tipo es significativamente diferente de otro?
9
No estoy seguro de que la diferencia sea imperceptible, y que solo en un ejemplo ad hoc se notará. Los métodos de validación cruzada y bootstrapping (submuestreo) dependen de manera crítica de sus parámetros de diseño, y esta comprensión aún no está completa. En general, los resultados dentro de la validación cruzada de k veces dependen críticamente del número de veces, por lo que puede esperar resultados siempre diferentes de los que observaría en el submuestreo.
Caso en cuestión: supongamos que tiene un modelo lineal verdadero con un número fijo de parámetros. Si usa la validación cruzada k-fold (con una k fija y dada), y deja que el número de observaciones llegue al infinito, la validación cruzada k-fold será asintóticamente inconsistente para la selección del modelo, es decir, identificará un modelo incorrecto con probabilidad mayor que 0. Este sorprendente resultado se debe a Jun Shao, "Selección de modelo lineal por validación cruzada", Revista de la Asociación Americana de Estadística , 88 , 486-494 (1993), pero se pueden encontrar más artículos en esta línea.
En general, los documentos estadísticos respetables especifican el protocolo de validación cruzada, exactamente porque los resultados no son invariables. En el caso de que elijan una gran cantidad de pliegues para grandes conjuntos de datos, comentan e intentan corregir los sesgos en la selección del modelo.
fuente