Supongamos que tengo una red neuronal simple de una sola capa, con n entradas y una única salida (tarea de clasificación binaria). Si configuro la función de activación en el nodo de salida como una función sigmoidea, entonces el resultado es un clasificador de Regresión logística.
En este mismo escenario, si cambio la activación de salida a ReLU (unidad lineal rectificada), ¿la estructura resultante es igual o similar a una SVM?
Si no, ¿por qué?
neural-networks
svm
ANUNCIO
fuente
fuente
Respuestas:
Para que la pérdida de red tenga la misma forma que las SVM, podemos eliminar cualquier función de activación no lineal de la capa de salida y usar la pérdida de bisagra para la propagación hacia atrás.
Entonces, en términos de funciones de pérdida, los SVM y la regresión logística están bastante cerca, aunque los SVM usan un algoritmo muy diferente para el entrenamiento y la inferencia basados en vectores de soporte.
Hay una buena discusión sobre la relación de SVM y la regresión logística en la sección 7.1.2 del libro Reconocimiento de patrones y aprendizaje automático .
fuente