Preguntas etiquetadas con neural-networks

21
Impulsar redes neuronales

Hace poco, estaba trabajando en el aprendizaje de algoritmos de refuerzo, como adaboost, aumento de gradiente, y he sabido que el árbol de aprendizaje débil más utilizado es el árbol. Realmente quiero saber si hay algunos ejemplos recientes exitosos (me refiero a algunos artículos o artículos) para...

21
Desde la regla de Perceptron hasta el Descenso de gradiente: ¿en qué se diferencian los Perceptrones con una función de activación sigmoidea de la Regresión logística?

Básicamente, mi pregunta es que en los perceptrones multicapa, los perceptrones se usan con una función de activación sigmoidea. Para que en la regla de actualización se calcule comoy^y^\hat{y} y^= 11 + exp( - wTXyo)y^=11+exp⁡(-wTXyo)\hat{y} = \frac{1}{1+\exp(-\mathbf{w}^T\mathbf{x}_i)} ¿En qué...

20
De las redes bayesianas a las redes neuronales: cómo se puede transponer la regresión multivariada a una red de múltiples salidas

Estoy tratando con un modelo lineal jerárquico bayesiano , aquí la red que lo describe. YYY representa las ventas diarias de un producto en un supermercado (observado). XXX es una matriz conocida de regresores, que incluye precios, promociones, día de la semana, clima, días festivos. SSS es el...

20
Diferencia entre retroalimentación RNN y LSTM / GRU

Estoy tratando de entender las diferentes arquitecturas de redes neuronales recurrentes (RNN) que se aplicarán a los datos de series temporales y me estoy confundiendo un poco con los diferentes nombres que se usan con frecuencia al describir los RNN. ¿Es la estructura de la memoria a corto plazo...

19
Algoritmo de retropropagación

Tengo una ligera confusión sobre el algoritmo de retropropagación utilizado en el perceptrón multicapa (MLP). El error se ajusta mediante la función de costo. En la retropropagación, estamos tratando de ajustar el peso de las capas ocultas. El error de salida que puedo entender, es decir, e = d -...