Recientemente leí algunos artículos sobre la red neuronal bayesiana (BNN) [Neal, 1992] , [Neal, 2012] , que proporciona una relación de probabilidad entre la entrada y la salida en una red neuronal. La capacitación de una red neuronal de este tipo es a través de MCMC, que es diferente del algoritmo tradicional de retropropagación.
Mis preguntas son: ¿Cuál es la ventaja de usar una red tan neuronal? Más específicamente, ¿podría proporcionar algunos ejemplos que se ajusten mejor a BNN que a NN?
fuente
Una ventaja del BNN sobre el NN es que puede calcular automáticamente un error asociado con sus predicciones al tratar con datos de objetivos desconocidos. Con un BNN, ahora estamos haciendo inferencia bayesiana. Definamos nuestra predicción BNN como , donde es la función NN, son sus entradas , son los parámetros NN, y x, t son las entradas y objetivos de entrenamiento. Esto debería ser compatible con la sintaxis utilizada por Neal en los enlaces proporcionados por @forecaster. Luego podemos calcular una desviación estándar de la distribución predictiva posterior, que ingenuamente usaría como precisión en la predicción:ff¯(x'|x,t)=∫f(x',ω)p(ω|x,t)dω f x′ ω σ(x')=∫[f(x',ω)−f¯(x'|x,t)]2p(ω|x,t)dω−−−−−−−−−−−−−−−−−−−−−−−−−−−√
fuente