Leí aquí que hay familias de funciones que necesitan nodos en la red neuronal con como máximo capas para representar la función, mientras que solo necesitan si el neural la red tiene al menos capas. Se refería a un artículo de Hastad. No lo encontré. ¿Alguien podría decirme el título del artículo? Creo que este es un resultado teórico realmente fascinante.
cc.complexity-theory
reference-request
jakab922
fuente
fuente
Respuestas:
El documento que la gente suele citar es Límites inferiores casi óptimos para circuitos de pequeña profundidad , que aparece en STOC 1986. El resultado principal de su pregunta es:
Lo que es posible aún más relevante es el hecho de que admite una separación exponencial entre la profundidad 3 y la profundidad 2 . Esto es relevante porque las puertas de umbral se usan comúnmente en redes profundas.TC0
fuente
Literalmente, el problema de separar exponencialmente las redes neuronales de profundidad d de profundidad d-1, para todo d, está abierto, a lo mejor de mi conocimiento. Cuando sus "funciones de activación" son funciones de umbral lineal, por ejemplo, está abierto si todas las redes de todas las profundidades d pueden simularse, con un aumento polinómico de tamaño, en profundidad 3.
fuente
El siguiente artículo demuestra una separación exponencial de perceptrones de profundidad versus profundidad . Un perceptrón es un circuito con una sola puerta de umbral en la parte superior, y circuitos booleanos sin ventilador como entradas como entradas:d + 1d d+1
Christer Berg, Staffan Ulfberg: un límite inferior para los perceptrones y una separación del oráculo de la . J. Comput. Syst. Sci. (JCSS) 56 (3): 263-271 (1998)PPPH
Los perceptrones a menudo se denominan modelos para redes neuronales. Los autores eran estudiantes de Johan Håstad, por lo que esta podría ser la referencia que está buscando.
fuente