Para los novatos, NO.
La generación de oraciones requiere un muestreo de un modelo de lenguaje, que proporciona la distribución de probabilidad de la siguiente palabra en contextos previos. Pero BERT no puede hacer esto debido a su naturaleza bidireccional.
Para investigadores avanzados, SÍ.
Puede comenzar con una oración de todos los tokens [MASK] y generar palabras una por una en orden arbitrario (en lugar de la descomposición de cadena de izquierda a derecha común). Aunque la calidad de generación de texto es difícil de controlar.
Aquí está el informe técnico BERT tiene una boca, y debe hablar: BERT como un modelo de lenguaje de campo aleatorio de Markov , sus erratas y el código fuente .
En resumen:
- Si desea investigar un poco en el área de decodificación con BERT, hay un gran espacio para explorar
- Si desea generar textos de alta calidad, personalmente le recomiendo que revise GPT-2 .