Estoy buscando encontrar pesos pre-entrenados de modelos ya entrenados como datos de Google News, etc. Me resultó difícil entrenar un nuevo modelo con suficiente cantidad (10 GB, etc.) de datos para mí. Por lo tanto, quiero aprovechar el aprendizaje de transferencia en el que podría obtener pesos de capa previamente entrenados y volver a entrenar esos pesos en las palabras específicas de mi dominio. Entonces, definitivamente tomará relativamente menos tiempo en el entrenamiento. Cualquier tipo de ayuda será muy apreciada. Gracias por adelantado :)
fuente
model = Word2Vec.load(fname) # you can continue training with the loaded model!
Las representaciones distribuidas (Guante) basadas en la capacitación en un gran corpus están disponibles directamente en el grupo de Stanford NLP. Puede usar esas incrustaciones de palabras directamente en su aplicación (en lugar de usar 1 vectores codificados en caliente y luego entrenar a la red para obtener las incrustaciones). Si su tarea no es demasiado especializada, comenzar con este conjunto de incrustaciones funcionará bien en la práctica.
fuente
Eche un vistazo a este documento [PDF] . El enfoque principal es sobre la tarea NER, pero la idea es la misma: tomar vectores word2vec previamente entrenados y adaptarlos para una aplicación específica.
Muchas aplicaciones comunes basadas en redes neuronales para PNL frecuentemente comienzan con vectores pre-entrenados. Por ejemplo, un documento muy reciente [PDF] (tareas de etiquetado NER y POS) hace exactamente esto.
fuente
fuente