Utilizo Libsvm para entrenar datos y predecir la clasificación del problema de análisis semántico . Pero tiene un problema de rendimiento en datos a gran escala, porque el análisis semántico se refiere al problema de la dimensión n .
El año pasado, Liblinear fue lanzado, y puede resolver el cuello de botella de rendimiento. Pero costó demasiada memoria . ¿ MapReduce es la única forma de resolver un problema de análisis semántico en big data? ¿O hay otros métodos que pueden mejorar el cuello de botella de memoria en Liblinear ?
machine-learning
bigdata
libsvm
Puffin GDI
fuente
fuente
Puedes echar un vistazo a Wongpal Wabbit . Es bastante popular para el aprendizaje a gran escala e incluye disposiciones paralelas.
Desde su sitio web:
fuente