He encontrado algunas formas básicas para medir la complejidad de las redes neuronales:
- Ingenuo e informal: cuente la cantidad de neuronas, neuronas ocultas, capas o capas ocultas
- Dimensión VC (Eduardo D. Sontag [1998] "Dimensión VC de redes neuronales" [ pdf ].)
- Un curso medido de complejidad computacional asintótica y granulada por equivalencia a T C 0 d .
¿Hay otras alternativas?
Se prefiere
- Si la métrica de complejidad pudiera usarse para medir redes neuronales de diferentes paradigmas (para medir backprop, redes neuronales dinámicas, correlación en cascada, etc.) en la misma escala. Por ejemplo, la dimensión VC se puede usar para diferentes tipos en redes (o incluso otras cosas que no sean redes neuronales), mientras que la cantidad de neuronas solo es útil entre modelos muy específicos donde la función de activación, señales (sumas básicas frente a picos) y otras Las propiedades de la red son las mismas.
- Si tiene buenas correspondencias con medidas estándar de complejidad de funciones que la red puede aprender
- Si es fácil calcular la métrica en redes específicas (sin embargo, esta última no es una obligación).
Notas
Esta pregunta se basa en una pregunta más general sobre CogSci.SE.
neural-networks
theory
vc-dimension
pac-learning
Artem Kaznatcheev
fuente
fuente
Respuestas:
Es posible que desee echar un vistazo al documento "(No) Limitando el verdadero error por John Langford y Rich Caruana (NIPS, 2001)
El resumen dice:
Muestran que puede aplicar límites de estilo PAC-Bayes a redes neuronales estocásticas. Sin embargo, el análisis solo se aplica a las redes neuronales de alimentación de 2 capas con una función de transferencia sigmoidal. En este caso, el término de complejidad solo depende del número de nodos y la varianza de los pesos. Muestran que para esta configuración, el límite predice efectivamente cuándo se producirá un sobreentrenamiento. ¡Desafortunadamente, realmente no afecta a ninguna de sus propiedades "preferidas"!
fuente
Además, es posible que también le interese el trabajo de la dimensión desgarradora realizado por el profesor Peter Bartlett. Aquí hay una introducción al análisis de la complejidad de la red neuronal, en un artículo de IEEE de 1998: La complejidad de la muestra de clasificación de patrones con redes neuronales: el tamaño de los pesos es más importante que el tamaño de la red (Bartlett 1998) [ http: //ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=661502]
fuente