Estadísticas y Big Data

15
La precisión de la máquina de aumento de gradiente disminuye a medida que aumenta el número de iteraciones

Estoy experimentando con el algoritmo de la máquina de aumento de gradiente a través del caretpaquete en R. Usando un pequeño conjunto de datos de admisión a la universidad, ejecuté el siguiente código: library(caret) ### Load admissions dataset. ### mydata <-

15
Problemas de singularidad en el modelo de mezcla gaussiana

En el capítulo 9 del libro Reconocimiento de patrones y aprendizaje automático, hay esta parte sobre el modelo de mezcla gaussiana: Para ser honesto, realmente no entiendo por qué esto crearía una singularidad. ¿Puede alguien explicarme esto? Lo siento, pero solo soy un estudiante universitario...

15
RNN: ¿Cuándo aplicar BPTT y / o actualizar pesos?

Estoy tratando de comprender la aplicación de alto nivel de los RNN para el etiquetado de secuencias a través (entre otros) del documento de Graves de 2005 sobre la clasificación de fonemas. Para resumir el problema: tenemos un gran conjunto de capacitación que consta de archivos de audio (de...

15
¿Cómo podría el descenso de gradiente estocástico ahorrar tiempo en comparación con el descenso de gradiente estándar?

Descenso de gradiente estándar calcularía el gradiente para todo el conjunto de datos de entrenamiento. for i in range(nb_epochs): params_grad = evaluate_gradient(loss_function, data, params) params = params - learning_rate * params_grad Para un número predefinido de épocas, primero calculamos...

15
¿Cuál es la diferencia entre PCA regular y PCA probabilística?

Sé que el PCA regular no sigue el modelo probabilístico para los datos observados. Entonces, ¿cuál es la diferencia básica entre PCA y PPCA ? En PPCA, el modelo de variable latente contiene, por ejemplo, variables observadas , latente (variables no observadas x ) y una matriz W que no tiene que ser...