En el aprendizaje automático básico, se nos enseñan las siguientes "reglas generales":
a) el tamaño de sus datos debe ser al menos 10 veces el tamaño de la dimensión VC de su conjunto de hipótesis.
b) una red neuronal con N conexiones tiene una dimensión VC de aproximadamente N.
Entonces, cuando una red neuronal de aprendizaje profundo dice, millones de unidades, ¿significa esto que deberíamos tener, digamos, miles de millones de puntos de datos? ¿Puedes arrojar algo de luz sobre esto?
Respuestas:
La regla general de la que habla no se puede aplicar a una red neuronal.
Una red neuronal tiene algunos parámetros básicos, es decir, sus pesos y sesgos. El número de pesos depende del número de conexiones entre las capas de red y el número de sesgos depende del número de neuronas.
El tamaño de los datos requeridos depende en gran medida de:
Dicho esto, la forma más adecuada y segura de saber si el modelo está sobreajustado es verificar si el error de validación está cerca del error de entrenamiento. Si es así, entonces el modelo funciona bien. Si no, entonces el modelo probablemente esté sobreajustado y eso significa que necesita reducir el tamaño de su modelo o introducir técnicas de regularización.
fuente