Preguntas etiquetadas con neural-network

Las redes neuronales artificiales (ANN) están compuestas de 'neuronas', construcciones de programación que imitan las propiedades de las neuronas biológicas. Un conjunto de conexiones ponderadas entre las neuronas permite que la información se propague a través de la red para resolver problemas de inteligencia artificial sin que el diseñador de la red haya tenido un modelo de un sistema real.

188
¿Qué son las capas deconvolucionales?

Recientemente leí Redes totalmente convolucionales para la segmentación semántica por Jonathan Long, Evan Shelhamer, Trevor Darrell. No entiendo qué hacen las "capas deconvolucionales" / cómo funcionan. La parte relevante es 3.3. El muestreo ascendente es una convolución hacia atrás Otra...

95
¿Cuándo usar GRU sobre LSTM?

La diferencia clave entre un GRU y un LSTM es que un GRU tiene dos compuertas ( restablecer y actualizar compuertas) mientras que un LSTM tiene tres compuertas (es decir , compuertas de entrada , salida y olvido ). ¿Por qué hacemos uso de GRU cuando claramente tenemos más control en la red a...

62
Backprop a través de Max-Pooling Layers?

Esta es una pequeña pregunta conceptual que me ha estado molestando por un tiempo: ¿Cómo podemos propagarnos a través de una capa de agrupación máxima en una red neuronal? Me encontré con capas de agrupación máxima mientras revisaba este tutorial para la biblioteca nn de Torch 7. La biblioteca...

53
RNN vs CNN a un alto nivel

He estado pensando en las redes neuronales recurrentes (RNN) y sus variedades y las redes neuronales convolucionales (CNN) y sus variedades. ¿Sería justo decir estos dos puntos: Use CNN para dividir un componente (como una imagen) en subcomponentes (como un objeto en una imagen, como el contorno...

42
¿Cuál es la diferencia entre LeakyReLU y PReLU?

f(x)=max(x,αx) with α∈(0,1)f(x)=max(x,αx) with α∈(0,1)f(x) = \max(x, \alpha x) \qquad \text{ with } \alpha \in (0, 1) Keras, sin embargo, tiene ambas funciones en los documentos . Fuga ReLU Fuente de LeakyReLU : return K.relu(inputs, alpha=self.alpha) Por lo tanto (ver código...