Preguntas etiquetadas con softmax

Función exponencial normalizadora que transforma un vector numérico de manera que todas sus entradas se vuelven entre 0 y 1 y juntas suman 1. A menudo se utiliza como la capa final de una red neuronal que realiza una tarea de clasificación.

14
Caret glmnet vs cv.glmnet

Parece haber mucha confusión en la comparación de usar glmnetdentro caretpara buscar una lambda óptima y usar cv.glmnetpara hacer la misma tarea. Se plantearon muchas preguntas, por ejemplo: Modelo de clasificación train.glmnet vs. cv.glmnet? ¿Cuál es la forma correcta de usar glmnet con...

11
Softmax desbordamiento [cerrado]

Cerrado. Esta pregunta está fuera de tema . Actualmente no está aceptando respuestas. ¿Quieres mejorar esta pregunta? Actualice la pregunta para que esté en el tema de Cross Validated. Cerrado hace 2 años . Esperando el próximo curso de Andrew Ng en...

9
¿Qué es el gradiente-log-normalizador?

En la wiki, la función softmax se define como el gradiente-log-normalizador de la distribución de probabilidad categórica . Aquí se encuentra una explicación parcial del log-normalizador , pero ¿qué significa gradiente-log-normalizador